Colección de citas famosas - Slogan de motivación - Red neuronal BP (red de retropropagación de errores)

Red neuronal BP (red de retropropagación de errores)

Aunque cada neurona artificial es muy simple, siempre que varias neuronas artificiales

estén conectadas de una determinada manera, se forma una red neuronal que puede procesar información compleja. La red de avance multicapa que utiliza el algoritmo BP es actualmente la red neuronal más utilizada, llamada red neuronal BP. Su función principal es mapear relaciones funcionales no lineales complejas.

Para el espacio modelo conocido y el espacio de datos, conocemos un determinado modelo y sus datos correspondientes, pero no podemos escribir la relación funcional entre ellos, sin embargo, si hay una gran cantidad de uno a uno. modelos correspondientes y una colección de muestras de datos, la relación funcional entre ellos se puede simular (mapear) utilizando la red neuronal BP.

En la Figura 8.11 se muestra una red BP de tres capas, que se divide en capa de entrada, capa oculta y capa de salida. Es la red BP más utilizada. El análisis teórico demuestra que la red de tres capas ya puede expresar cualquier relación funcional continua compleja. Solo se necesitan dos capas ocultas cuando se mapean funciones discontinuas (como ondas en dientes de sierra) [8].

En la Figura 8.11, X=(x1,...,xi,...,xn)T es el vector de entrada. Si se suma x0=-1, se puede introducir un umbral para lo oculto. neuronas de capa; el vector de salida de la capa oculta es: Y=(y1,…,yi,…,ym)T Si se agrega y0=-1, se puede introducir un umbral para las neuronas de la capa de salida; es: O=(o1,…,oi,… ,ol)T la matriz de peso entre la capa de entrada y la capa oculta está representada por V, V=(V1,...,Vj,...,Vl) T, donde el vector de columna Vj representa el peso de la j-ésima neurona en el vector de capa oculta. La matriz de peso entre la capa oculta y la capa de salida está representada por W, W = (W1,..., Wk,. ..,Wl)T,

El vector de columna Wk representa la k-ésima neurona del vector de peso de elementos de la capa de salida.

Figura 8.11 Red BP de tres capas [8]

La idea básica del algoritmo BP es: conjuntos de muestras de entrada y salida correspondientes uno a uno preestablecidos. El proceso de aprendizaje consta de dos procesos: propagación hacia adelante de señales y propagación hacia atrás de errores. Durante la propagación directa, la muestra de entrada se pasa desde la capa de entrada, se procesa capa por capa por cada capa oculta y luego se transmite a la capa de salida. Si la salida real de la capa de salida no coincide con la salida esperada (señal del maestro), cambiará a la propagación hacia atrás del error. El error de salida se propaga hacia atrás capa por capa a través de la capa oculta a la capa de entrada de alguna forma, y ​​el error se distribuye a todas las neuronas en cada capa para obtener las señales de error de cada capa, que se pueden usar para calcular los pesos de Ajuste de las neuronas en cada capa (para saber cómo modificar los pesos, consulte el trabajo de Han Liqun [8]), los conjuntos de muestras de entrada y salida se utilizan continuamente para ajustar los pesos en un bucle, de modo que todos los errores de salida. las muestras de entrada se reducen a una precisión satisfactoria. Este proceso se denomina proceso de aprendizaje y formación de la red. Cuando se entrena la red, equivale a mapear (expresar) la relación funcional entre las muestras de entrada y salida.

En exploración geofísica, el proceso de modelado directo se puede expresar como la siguiente función:

d=f(m) (8.31)

Su función inversa es

m=f-1(d) (8.32)

Si se puede obtener esta función inversa, entonces el problema de inversión está resuelto. En términos generales, es difícil escribir esta función inversa, pero podemos usar la red neuronal BP para mapear esta función inversa m = f-1 (d). Para el problema geofísico inverso, si los datos de observación se usan como datos de entrada y los parámetros del modelo se usan como datos de salida, se genera aleatoriamente una gran cantidad de muestras en el espacio modelo para el cálculo directo, se obtienen las muestras de datos de observación correspondientes y se utilizan para entrenar la red BP. La red entrenada es equivalente a la función inversa de la ecuación de datos geofísicos. Puede usarlo para realizar inversión, ingresar datos de observación y la red generará su modelo correspondiente.

Es necesario aprender y entrenar la red neuronal de BP antes de que pueda realizar la inversión. La capacitación requiere una gran cantidad de muestras y generar estas muestras requiere una gran cantidad de cálculos directos. Además, el proceso de aprendizaje y capacitación también requiere mucho tiempo. Sin embargo, una vez entrenada la red neuronal BP, se puede ignorar el tiempo de cálculo en la inversión.

Para que la red neuronal BP mapee las relaciones funcionales relativamente bien, se requiere una muestra representativa completa. Sin embargo, debido a la infinidad del espacio del modelo, es difícil obtener un conjunto de muestras representativo completo. La red BP entrenada con tales muestras solo puede reflejar la relación funcional entre el rango más pequeño de espacio de datos y el rango más pequeño de espacio modelo donde se encuentra la muestra. Los datos observados más allá de ellos no se pueden invertir correctamente. En la actualidad, la red neuronal BP tiene muchas aplicaciones en inversión unidimensional, pero menos en inversión bidimensional y tridimensional. La razón es que es difícil generar un espacio muestral representativo completo.