En parlant de déc, qui est la détection des anomalies de séries chronologiques, beaucoup de gens ne le comprennent pas si bien (un peu interrompu). Il s'agit, simplement, consiste à choisir les données qui ne sont pas bonnes ou anormales dans un grand nombre de données disposées par ordre chronologique (secouant la tête et réfléchissant aux mots). Comment dire, dans de nombreux aspects tels que le domaine financier, quel type de scénarios est utilisé pour surveiller les données, il est très important. Parlons-en lentement.

Parlons-en d'abord, il y a quelques points clés importants dans ce module DÉ.

Premièrement, le point le plus utilisé est basé sur des méthodes statistiques. En termes simples, il s'agit d'analyser certaines distributions de données, telles que la moyenne et l'écart type, et les données dans une certaine plage raisonnable, comme d'habitude. S'il y a des données qui sont loin de cette gamme et ce sera comme une personne qui se tient différemment de tout le monde dans l'équipe ordonnée émerge soudainement, et nous la traiterons comme une exception. Dans les situations réelles, par exemple, lorsqu'une entreprise analyse ses statistiques quotidiennes de vente, elle peut calculer la valeur moyenne et les gammes flottantes de haut en bas au cours de la dernière période. Une fois que les ventes d'un certain jour dépassent soudainement ou sont trop peu en dehors de cette fourchette flottante, il y a une situation très probable anormale ce jour-là. Ces données spécifiques sont calculées différemment selon différents scénarios. Certains utilisent des plages fixes, tandis que d'autres s'ajustent dynamiquement. Quoi qu'il en soit, vous ne devez pas oublier de choisir la méthode appropriée en fonction des caractéristiques dans diverses situations.

Un autre module est basé sur la direction du modèle d'apprentissage automatique, qui est divisé en de nombreuses catégories. Ici, les modèles de classification sont très couramment utilisés dans ces méthodes. Par exemple, une méthode plus conventionnelle et simple dans ce domaine (pensant avec votre menton) est de former le modèle en fonction des données réelles des étiquettes normales et anormales qui ont été jugées dans le passé. Une fois que ce modèle a été formé de cette manière, vous utiliserez ces compétences pour déterminer le type de nouvelles données lorsque vous rencontrez de nouvelles données. Cependant, cela nécessite une grande quantité de données d'échantillons correctes comme base, sinon le taux de précision sera considérablement réduit! Un autre type est plus complexe et difficile à maîtriser, mais sa capacité est bonne. Dans l'apprentissage en profondeur, l'autoencoder peut apprendre automatiquement les modes normaux en faisant des anomalies. Il peut découvrir automatiquement le problème des images mais pas conformément aux spécifications normales. Il est bon pour certains domaines complexes tels que des vidéos d'image pour juger des défauts en fonction des séries chronologiques. Cependant, il est très difficile à utiliser dans la formation des paramètres complexes.

Ensuite, cette fenêtre de temps est très critique. Ce n'est qu'en calculant les valeurs caractéristiques dans une fenêtre raisonnable. La plage de fenêtres a des effets différents à différents moments. La longueur est trop courte pour couvrir une certaine durée, afin de capturer de nombreux changements anormaux, mais il entraînera des interférences et rendra difficile le juge. Par exemple, lors de la surveillance du trafic anormal du serveur change en quelques minutes, la fenêtre d'une minute ou plus est sélectionnée et l'impact est des longueurs différentes. Le temps de fenêtre doit être déterminé en fonction de la fréquence de fluctuation des données réelle

Ensuite, je parlerai en détail de la question en détail par des questions et réponses

Question 1: Quel est le spécifique et la plus simple des méthodes statistiques par rapport aux modèles d'apprentissage automatique? Pour la plupart des gens qui ne savent rien, les méthodes statistiques sont faciles à démarrer. Fondamentalement, ils connaissent ces calculs de base de données. Ils ne nécessitent pas une forte puissance de calcul. Il est possible de calculer des indicateurs tels que la moyenne. Si vous comparez la gamme standard et simple, cela devient une condition de jugement. Le modèle est différent. Tout d'abord, vous devez apprendre la théorie du modèle et le modèle complexe doit être pris en compte afin d'exécuter le processus de formation et d'ajustement des paramètres. Le processus nécessite une expertise complexe. Par conséquent, à partir de cet aspect, les statistiques sont un type facile à comprendre.

Question 2: Si vous avez tendance à choisir un modèle pour les zones complexes, quel modèle est le meilleur? Dans lequel on est une surveillance continue et à long terme, comme la prédiction de la puissance, et les caractéristiques des données changent avec des changements complexes, les caractéristiques à longue séquence capturent ce point fort, le temps de prix quotidien, qui a souvent une augmentation et une tendance augmente et complexes continues. Si les données elle-même ont beaucoup de bruit et qu'il y a un format standard normal évident, vous devez reconstruire l'auto. Ce type d'analyse ciblée basée sur les caractéristiques doit être basé sur des changements.

Je pense que ce dépassement est très utile. Quel que soit le champ complexe à l'avenir, cette méthode sera probablement manquante. Nous devons accorder de plus en plus d'attention et trouver des moyens de bien l'utiliser, mais nous devons continuer à étudier!

Posted in

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *