Estoy tratando de implementar una función de activación personalizada binaria en la capa de salida de un modelo de Keras. Esta es mi prueba: def binary_activation(x): ones = tf.ones(tf.shape(x), dtype=x.dtype.base_dtype) zeros = tf.zeros(tf.shape(x), dtype=x.dtype.base_dtype) def grad(dy....
12 feb. 2021 a las 19:26
Intenté construir un clasificador de imágenes con CNN. Hay 2300 imágenes en mi conjunto de datos y dos categorías: hombres y mujeres. Aquí está el modelo que utilicé: early_stopping = EarlyStopping(min_delta = 0.001, patience = 30, restore_best_weights = True) model = tf.keras.Sequential() model.....
Cuando se usa la regla de la cadena para calcular la pendiente de la función de costo en relación con los pesos en la capa L, la fórmula se convierte en: d C0 / d W(L) = ... . d a(L) / d z(L) . ... Con : z (L) es el campo local inducido: z (L) = w1(L) * a1(L-1) + w2(L) * a2(L-1) * ... a (L) es la sa....
Las imágenes de entrada se regularizan a (0, 1) y la salida son valores float32 con distribución pseudo gaussiana (-∞, ∞) Cuando está instalado, la precisión del tren y la validación dice más de 0.999 pero cuando predice el uso del tren y el conjunto de validación, no se reproduce. La salida predich....
Esta puede ser una pregunta muy básica / trivial. Para entradas negativas, La salida de la función de activación ReLu es cero La salida de la función de activación sigmoidea es cero La salida de la función de activación de Tanh es -1 A continuación se mencionan mis preguntas: ¿Por qué todas las fun....
Quiero agregar restricciones personalizadas en los parámetros de una capa. Escribo una capa de activación personalizada con dos parámetros entrenables a y b s.t: activation_fct = a*fct() + b*fct(). Necesito tener la suma de los parámetros (a + b) igual a 1 pero no sé cómo escribir tal restricción. ¿....
Recientemente estoy estudiando la teoría sobre la red neuronal. Y estoy un poco confundido sobre el papel del descenso de gradiente y la función de activación en ANN. Por lo que entiendo, la función de activación se utiliza para transformar el modelo en modelo no lineal. Para que pueda resolver el p....
Estoy usando el modelo secuencial de Keras, con el tipo de capa DENSE. Escribí una función que calcula recursivamente las predicciones, pero las predicciones están muy lejos. Me pregunto cuál es la mejor función de activación para usar para mis datos. Actualmente estoy usando la función hard_sigmoid....
Actualmente estoy tratando de tener varias capas con una activación personalizada con el nombre cust_sig. Pero cuando intento compilar el modelo, aparece un ValueError cuando varias capas tienen el mismo nombre cust_sig. Soy consciente de que puedo cambiar manualmente el nombre de cada capa, pero qu....
12 oct. 2019 a las 01:39
¿Cómo cambiar la capa de activación de una red preentrenada de Pytorch? Aquí está mi código: print("All modules") for child in net.children(): if isinstance(child,nn.ReLU) or isinstance(child,nn.SELU): print(child) print('Before changing activation') for child in net.children(): if ....
Estoy escribiendo un programa para predecir cuándo sucederá algo. No sé qué función de activación obtener salida en el día de la semana (1-7). Intenté la función sigmoide pero necesito ingresar el día predicho y generar la probabilidad, no quiero que sea de esta manera. Espero que la función de acti....
Necesito aclaraciones sobre cuándo exactamente decimos que se activa una función de activación. El trabajo de la función de activación es introducir la no linealidad, correcto. ¿Es solo escalar una entrada dada a un rango confinado?....
En pytorch un modelo de red de clasificación se define como esto, class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() self.hidden = torch.nn.Linear(n_feature, n_hidden) # hidden layer self.out = torch.nn.Linear(n_hi....
15 ago. 2019 a las 23:43
He estado tratando de averiguar qué hacen exactamente las funciones de activación no lineal cuando se implementan en una red neuronal. Sé que modifican la salida de una neurona, pero ¿cómo y con qué propósito? Sé que agregan no linealidad a las redes neuronales lineales, pero ¿para qué? ¿Qué le hace....
Hola, quiero implementar una función lambda en python que me devuelve x si x> 1 y 0 en otro sentido (relu): Entonces tengo algo me gusta: p = [-1,0,2,4,-3,1] relu_vals = lambda x: x if x>0 else 0 print(relu_vals(p)) Es importante tener en cuenta que quiero pasar el valor de lambda a una función ....
5 jul. 2019 a las 17:51
Seguí un tutorial sobre un clasificador de imágenes usando Python y Tensorflow. Ahora estoy tratando de aplicar el aprendizaje profundo a una situación personalizada. Hice un programa de simulación de vendedores / compradores donde los clientes compran una piedra siguiendo sus deseos. Las piedras ti....
Estoy entrenando NN para el problema de regresión. Entonces la capa de salida tiene una función de activación lineal. Se supone que la salida de NN está entre -20 y 30. Mi NN funciona bien la mayor parte del tiempo. Sin embargo, a veces da una salida de más de 30, lo que no es deseable para mi siste....
¿Es posible trazar una función de activación que defino usando una activación ya existente de Keras? Intenté hacerlo simplemente así: import keras from keras import backend as K import numpy as np import matplotlib.pyplot as plt # Define swish activation: def swish(x): return K.sigmoid(x) * x ....
22 may. 2019 a las 13:23
Soy principiante en Python, aprendizaje profundo y redes neuronales. Hice una función de activación personalizada. Lo que quiero saber cuando estoy haciendo una función de activación personalizada que raíz de sigmoide, ¿dónde debo definir la derivada para mi función de activación personalizada? Inte....
24 abr. 2019 a las 09:49
Tengo problemas para implementar funciones de activación personalizadas en Pytorch, como Swish. ¿Cómo debo implementar y usar funciones de activación personalizadas en Pytorch?....
Estoy tratando de implementar y probar una función de activación que he leído en un documento. Estoy usando Keras con el backend de tensorflow y quiero alimentar la función de activación al método de ajuste de mi modelo. Aquí está la forma matemática de la función: Fórmula por partes He intentado im....
Tengo algunas dificultades para comprender el papel de las funciones de activación y las funciones de costo. Veamos un ejemplo simple. Digamos que estoy construyendo una red neuronal (red neuronal artificial). Tengo 5 variables "x" y una variable "y". Si hago el escalado de características habitual ....
10 ene. 2019 a las 17:20
Estaba estudiando sobre la función de activación en NN, pero no pude entender esta parte correctamente: "Cada capa se activa mediante una función lineal. Esa activación, a su vez, pasa al siguiente nivel como entrada y la segunda capa calcula la suma ponderada en esa entrada y en A su vez, los incen....
6 ene. 2019 a las 22:40
Estoy creando una función de activación personalizada, en particular la función de activación RBF: from keras import backend as K from keras.layers import Lambda l2_norm = lambda a,b: K.sqrt(K.sum(K.pow((a-b),2), axis=0, keepdims=True)) def rbf2(x): X = #here i need inputs that I receive from pre....
Estoy escribiendo una red neuronal simple en pyTorch, donde las características y los pesos son (1, 5) tensores. ¿Cuáles son las diferencias entre los dos métodos que menciono a continuación? y = activation(torch.sum(features*weights) + bias) Y yy = activation(torch.mm(features, weights.view(5,1)) ....