Términos
Los términos profesionales se refieren a nombres industriales unificados para ciertas cosas en un campo específico y se utilizan en todos los ámbitos de la vida.
Ejemplos de sustantivos básicos
1. Neurona
Así como las neuronas forman el componente básico de nuestro cerebro, las neuronas forman el componente básico de la estructura neuronal. Piense en lo que hacemos cuando nuestro cerebro recibe una nueva información. Cuando obtenemos información, la procesamos y luego generamos un resultado.
De manera similar, las neuronas de una red neuronal reciben información, la procesan y producen una salida, que se envía a otras neuronas para su posterior procesamiento o salida directa.
2. Peso
Cuando la entrada ingresa a una neurona, se multiplica por un peso. Por ejemplo, si una neurona tiene dos entradas, a cada entrada se le asignará un peso asociado. Durante el entrenamiento del modelo, inicializamos aleatoriamente los pesos y los actualizamos.
Después del entrenamiento, la red neuronal otorga mayor peso a las entradas importantes, mientras que las entradas consideradas sin importancia recibirán ponderaciones menos importantes. Un peso de 0 significa que la característica es irrelevante.
Supongamos que la entrada es a y que el peso W1 está relacionado con a. Después de pasar por el nodo, la entrada se convierte en a*W1.
3. Desplazamiento
Además de los pesos, se aplica otro componente lineal a la entrada, llamado desplazamiento. Se suma al resultado de multiplicar los pesos de entrada.
Este sesgo cambia principalmente el rango de ponderaciones.
Después de agregar el desplazamiento, el resultado se parece a *W1+desplazamiento. Esta es la última parte lineal de la transformación de entrada.
4. Función de Activación Una vez que se aplican los componentes lineales a la entrada, se aplicará la función no lineal. Esto se logra aplicando una función de activación a una combinación lineal.
La función de activación convierte la señal de entrada en una señal de salida. La salida de la función de activación se parece a f(a*W1+b), y F() es la función de activación.
En la siguiente figura, tenemos n entradas, de X1 a Xn, y los pesos correspondientes de Wk1 a Wkn. Tenemos un valor de compensación, que es bk. El peso se multiplica primero por la entrada correspondiente, más el desplazamiento, * * * es lo mismo que u.
La función de activación actúa sobre u, que es f(u), y recibimos la salida final de la neurona, como yk=f(u).