Colección de citas famosas - Frases motivadoras - Algoritmo de clasificación de series temporales

Algoritmo de clasificación de series temporales

La distancia euclidiana no puede clasificar bien los patrones de fluctuación de las series temporales, por lo que es crucial desarrollar una medida de distancia que sea más adecuada para la clasificación de series temporales. La medida de distancia más clásica para series temporales es la deformación temporal dinámica (DTW). Los principios de DTW son los siguientes:

Por ejemplo, dada una secuencia de muestra X y una secuencia de comparación Y, Z:

X: 3, 5, 6, 7, 7, 1

Y: 3, 6, 6, 7, 8, 1, 1

Z: 2, 5, 7, 7, 7, 2

Es la actualización de X e Y ¿Son similares o X y Z son más similares?

DTW primero obtiene una matriz de distancia de secuencia MM basada en la distancia entre puntos de secuencia (distancia euclidiana), en la que las filas corresponden a la secuencia X, las columnas corresponden a la secuencia Y y los elementos de la matriz son las secuencias X e Y correspondientes. Distancia euclidiana de un punto a otro en filas y columnas:

Al analizar los patrones de fluctuación de las series temporales, DTW puede obtener mejores resultados de clasificación de series temporales. Las investigaciones muestran que la medida de distancia DTW combinada con el vecino más cercano simple puede lograr mayores ventajas que los algoritmos de distancia europeos tradicionales (como SVM, red neuronal multicapa clásica, árbol de decisión y Adaboost) en la clasificación de series temporales.

DTW ha derivado además muchas variantes diferentes, como la mejora basada en la primera derivada de la secuencia propuesta por Keogh y Pazzani, que ha logrado buenos resultados. Uno de los métodos simples se llama distancia invariante de complejidad (; CID), que utiliza información derivada de primer orden para calcular la distancia DTW, tiene efectos sobresalientes en algunos problemas.

Además de DTW, existen otros algoritmos de patrones de ondas que consideran series temporales. Por ejemplo, el método Shapelet propuesto por Ye He: estudia subsecuencias representativas en una secuencia y las clasifica en características Shapelet. Lin et al. propusieron un método basado en diccionario para convertir secuencias en secuencias de palabras de acuerdo con un diccionario específico para su clasificación. Deng propuso un método de extracción de características de fluctuación basado en intervalos.

Además de los métodos anteriores, la investigación sobre algoritmos de agregación (que agregan muchos algoritmos diferentes) también ha logrado grandes avances. El algoritmo COTE propuesto recientemente agrega casi todos los diferentes algoritmos de clasificación mencionados anteriormente y logra buenos resultados de clasificación.

Este tipo de método es un método para extraer características relevantes a través de ciertas relaciones métricas, como el método de la bolsa de palabras. Representa una secuencia con palabras averiguando si hay características en la serie de tiempo que coincidan con las bolsas de palabras existentes (la apariencia de la secuencia) y luego clasifique las palabras. Otros métodos basados ​​en funciones utilizan enfoques similares, como la extracción de estadísticas, los basados ​​en reglas, etc. y luego clasificar a través del modelo de clasificación.

1. MLP, FCN, ResNet

La entrada de MLP es un vector (matriz), y cada elemento de la matriz completa se pondera capa por capa en forma de un total. conexión para obtener la clasificación final. Este método es un método de aprendizaje aproximado que aprende directamente la correlación lineal o no lineal directa de todos los elementos, pero no explora en profundidad las mejores características de rendimiento de la matriz y el efecto de clasificación no es bueno.

FCN reemplaza la capa de enlace completa en MLP con una capa convolucional, y lo mismo ocurre con Lacey Net, excepto que la capa convolucional se reemplaza por un núcleo de convolución unidimensional.

Como se puede ver en "Clasificación de series temporales desde cero con redes neuronales profundas: línea de base sólida", el efecto de los métodos de aprendizaje profundo es básicamente cercano o incluso mejor que los métodos tradicionales, entre los cuales FCN tiene el mejor. rendimiento general.

El método de LSTM FCN es relativamente simple: ingresa la entrada en las dos ramas de LSTM y FCN respectivamente, y finalmente conecta las dos ramas de salida de softmax en serie para obtener el resultado de la clasificación. En este artículo, los autores dicen que este método logra mejores resultados que FCN.

En algunos otros planes de competencia, también hay una combinación de resnet+LSTM+FC. Primero, las características relevantes se extraen mediante la convolución unidimensional de Resnet, y luego la correlación de los vectores de características unidimensionales se aprende a través de LSTM y luego se realiza la clasificación. Para diferentes problemas, puede que valga la pena intentar comprender cuál es mejor.

En comparación con los métodos anteriores, BiGRU-CNN en realidad no tiene mejoras importantes, es decir, la rama LSTM se reemplaza por una rama GRU bidireccional.