मैं फाइन-ट्यूनिंग का उपयोग करता हूं। मैं उन सभी परतों की सक्रियता को कैसे देख और एक्सेस कर सकता हूं जो दृढ़ आधार के अंदर हैं? conv_base = VGG16(weights='imagenet', include_top=False, input_shape=(inp_img_h, inp_img_w, 3)) def create_functional_model(): inp = Input(sh....
8 अक्टूबर 2021, 22:47
मैंने मैटलैब में एक साधारण फीडफॉरवर्ड न्यूरल नेट इस प्रकार बनाया है: mynet = feedforwardnet(5) mynet.layers{1}.transferFcn = 'poslin'; % one hidden layer(5 neurons) with poslin = ReLU activation function mynet.layers{2}.transferFcn = 'purelin'; % last layer has simply linear activation function मै....
1 अक्टूबर 2021, 14:30
मैं एक सघन परत के लिए अपने सक्रियण के रूप में अधिकतमकरण के बजाय कम से कम के साथ लीक-रेलू फ़ंक्शन का उपयोग करना चाहता हूं। दूसरे शब्दों में, मैं चाहता हूं कि मेरी सक्रियता f(x) = min{x, \alpha x } हो। जैसा कि नीचे दिखाया गया है, मैं पहले एक विधि को परिभाषित करता हूं। def new_leaky_relu(x, alpha): ....
24 सितंबर 2021, 21:17
मैं अपने तंत्रिका नेटवर्क आर्किटेक्चर के निर्माण के लिए पाइटोरच और ऑटोग्रैड का उपयोग कर रहा हूं। यह एक सिंगल इनपुट और आउटपुट के साथ एक छोटा 3 लेयर्ड नेटवर्क है। मान लीजिए मुझे कुछ प्रारंभिक स्थितियों के आधार पर कुछ आउटपुट फ़ंक्शन की भविष्यवाणी करनी है और मैं एक कस्टम लॉस फ़ंक्शन का उपयोग कर रहा हू....
19 सितंबर 2021, 08:20
LeakyReLU फ़ंक्शन में नकारात्मक ढलान क्या दर्शाता है? "नकारात्मक ढलान" शब्द का प्रयोग TensorFlow और Pytorch दोनों के दस्तावेज़ीकरण में किया गया है, लेकिन यह वास्तविकता की ओर इशारा नहीं करता है। सकारात्मक और नकारात्मक दोनों इनपुट के लिए LeakyReLU फ़ंक्शन का ढलान आमतौर पर गैर-नकारात्मक होता है। Pytorc....
20 अगस्त 2021, 22:27
मैंने माइकल नीलसन की किताब न्यूरल नेट और डीप लर्निंग से पहले न्यूरल नेट के लिए कोड का इस्तेमाल किया, जिसका इस्तेमाल हस्तलिखित अंकों को पहचानने के लिए किया गया था। यह मिनी बैच और सिग्मॉइड सक्रियण फ़ंक्शन के साथ स्टोकेस्टिक ग्रेडिएंट डिसेंट का उपयोग करता है। मैंने इसे एक इनपुट न्यूरॉन, दो हिडन न्यूर....
मैं आर में कैरेट पैकेज का उपयोग कर रहा हूं, उपग्रह छवियों को वर्गीकृत करने के लिए बहु-परत परसेप्ट्रॉन को लागू करने की कोशिश कर रहा हूं। मैं method=mlpML का उपयोग कर रहा हूं, और मैं जानना चाहता हूं कि किस सक्रियण फ़ंक्शन का उपयोग किया जा रहा है। यहाँ मेरा कोड है: controlparameters<-trainControl(meth....
10 जुलाई 2021, 16:12
मैंने एक साधारण एनएन लिखा (इसे दो नंबर जोड़ना चाहिए) और मैंने विभिन्न सक्रियण कार्यों की कोशिश की, यह मेरा कोड है class Layer: def __init__(self): self.inputs = None def forward(self, inputs): pass def backward(self, error_gradient, lr): pass class Dense(Layer): def __init....
मैं टेंसरफ़्लो में एक कस्टम सक्रियण फ़ंक्शन लागू करना चाहता हूं। इस सक्रियण फ़ंक्शन का विचार यह है कि इसे सीखना चाहिए कि यह कितना रैखिक होगा। निम्नलिखित फ़ंक्शन का उपयोग करना। tanh(x*w)/w for w!= 0 x for w = 0 पैरामीटर डब्ल्यू सीखा जाना चाहिए। हालाँकि मुझे नहीं पता कि इसे टेंसरफ़्लो....
6 जून 2021, 23:28
अनुक्रमिक मॉडल बनाते समय, मैंने देखा कि relu परत और LeakyReLU परत जोड़ने में अंतर है। test = Sequential() test.add(Dense(1024, activation="relu")) test.add(LeakyReLU(0.2)) हम सक्रियण = "LeakyReLU" के साथ परत क्यों नहीं जोड़ सकते? (LeakyReLU एक स्ट्रिंग नहीं है जिसके साथ केरस काम कर सकता है) relu प....
1 जून 2021, 14:52
मैं PReLU सक्रियण को tensorflow 2.4.1 में कार्यान्वित करने का प्रयास कर रहा हूँ जैसा कि यहाँ दिया गया है Tensorflow में PReLU सक्रियण को कैसे कार्यान्वित करें? निम्नलिखित त्रुटि मिली ValueError: Variable alpha already exists, disallowed. Did you mean to set reuse=True or reuse=tf.AUTO_REUSE in VarSc....
क्या तन के साथ स्केलेर के लॉजिस्टिक रिग्रेशन को चलाने का कोई तरीका है? मुझे पता है कि जब लेबल {-1,1} होते हैं तो टैन बेहतर होता है और जब लेबल {0,1} होते हैं तो सिग्मॉइड बेहतर होता है। अगर मैं लॉजिस्टिक रिग्रेशन को लागू नहीं कर सकता तो {-1,1} -> {0, 1} से लेबल को परिवर्तित कर देगा, सिग्मॉइड एक्टिवेशन....
मेरे तंत्रिका नेटवर्क के लिए मेरे पास बाइनरी वर्गीकरण समस्या है। मुझे अपनी छिपी हुई परत में ReLU सक्रियण फ़ंक्शन और आउटपुट परत में सिग्मॉइड फ़ंक्शन का उपयोग करके पहले से ही अच्छे परिणाम मिले हैं। अब मैं और भी बेहतर परिणाम प्राप्त करने की कोशिश कर रहा हूं। मैंने ReLU सक्रियण फ़ंक्शन के साथ एक दूसरी....
मैं https://www.tensorflow पर TensorFlow टेक्स्ट वर्गीकरण उदाहरण को समझने की कोशिश कर रहा हूं .org/tutorials/keras/text_classification। वे मॉडल को इस प्रकार परिभाषित करते हैं: model = tf.keras.Sequential([ layers.Embedding(max_features + 1, embedding_dim), layers.Dropout(0.2), layers.GlobalA....
मैं परतों की संख्या और सक्रियण फ़ंक्शन दोनों को एक साथ ट्यून करने के लिए एक केरस ट्यूनर स्थापित करने का प्रयास कर रहा हूं। नेटवर्क एक 2D फ़ंक्शन को दूसरे 2D फ़ंक्शन में बदलने का प्रयास करता है। मुझे त्रुटि मिलती रहती है: ValueError: Unknown activation function: sigmoidtanh मेरा कोड नीचे है: pytho....
मैं विशेष रूप से जानना चाहता हूं कि तंत्रिका नेटवर्क में न्यूरॉन्स कैसे सक्रिय हो रहे हैं (सक्रियण समारोह के बाद प्रत्येक न्यूरॉन के आउटपुट) जब मैं Tensorflow 2 में मॉडल के अनुमान के दौरान इनपुट देता हूं तो मैं अनुक्रमिक मॉडल के सभी न्यूरॉन्स की सक्रियता कैसे प्राप्त कर सकता हूं?....
10 मार्च 2021, 22:42
मैं एक केरस मॉडल की आउटपुट परत में एक बाइनरी कस्टम सक्रियण फ़ंक्शन को लागू करने का प्रयास कर रहा हूं। यह मेरा परीक्षण है: def binary_activation(x): ones = tf.ones(tf.shape(x), dtype=x.dtype.base_dtype) zeros = tf.zeros(tf.shape(x), dtype=x.dtype.base_dtype) def grad(dy): return d....
12 फरवरी 2021, 19:26
मैं अपने पहले तंत्रिका जाल पर काम कर रहा हूं, इसे पूरी तरह से खरोंच से बना रहा हूं। हालाँकि, मॉडल की प्रगति को ट्रैक करने के लिए लागत फ़ंक्शन को प्रिंट करते समय यह केवल बढ़ जाता है, मैं जिस डेटा का उपयोग कर रहा हूं वह सिर्फ 1s,0s है मैं अपने पहले मॉडल के लिए कुछ सरल चाहता था। इसमें दो टैन नोड्स की....
मैंने इस प्रतिक्रिया का अनुसरण किया: get_custom_objects().update(act_dispatcher) जहां act_dispatcher सभी सक्रियण कार्यों के साथ एक शब्दकोश है जिसे मैं जोड़ना चाहता हूं जैसे {'fun_1':fun_1, 'fun_2': fun_2}। पहली चीज जिसने मेरा ध्यान खींचा वह यह है कि शुरुआत में, अगर मैं कुछ भी नहीं जोड़ता, get_custo....
मैं सीएनएन के साथ एक छवि वर्गीकारक बनाने की कोशिश कर रहा हूँ। मेरे डेटासेट और दो श्रेणियों में 2300 छवियां हैं: पुरुष और महिलाएं। यहां वह मॉडल है जिसका मैंने उपयोग किया था: early_stopping = EarlyStopping(min_delta = 0.001, patience = 30, restore_best_weights = True) model = tf.keras.Sequential() ....
मेरे पास एक तंत्रिका नेटवर्क है जो संख्यात्मक मानों को आउटपुट करता है, लेकिन ये मान स्पष्ट हैं (उदाहरण के लिए, 0, 0.25, 0.5, 0.75, 1)। मेरे आउटपुट लेयर के लिए उपयोग करने के लिए एक अच्छा सक्रियण फ़ंक्शन क्या होगा? मैं यह सोच रहा हूं क्योंकि मेरा आउटपुट संख्यात्मक है, लेकिन स्पष्ट है।....
12 नवम्बर 2020, 01:24
मैं छिपी हुई परतों के लिए अपने सक्रियण फ़ंक्शन के रूप में leaky_relu का उपयोग करने का प्रयास कर रहा हूं। पैरामीटर alpha के लिए, इसे इस प्रकार समझाया गया है: x <0 . पर सक्रियण फलन का ढाल इसका क्या मतलब है? मॉडल के परिणामों पर अल्फा के विभिन्न मूल्यों का क्या प्रभाव पड़ेगा?....
मैं एक विशेष आउटपुट रेंज के साथ काम करने के लिए टेंसरफ़्लो में एक कस्टम तन () सक्रियण फ़ंक्शन बनाने की कोशिश कर रहा हूं जो मुझे चाहिए। मैं चाहता हूं कि मेरा नेटवर्क एकाग्रता गुणकों को आउटपुट करे, इसलिए मुझे लगा कि अगर tanh() का आउटपुट नकारात्मक था तो उसे 0 और 1 के बीच एक मान वापस करना चाहिए, और यदि....
18 अगस्त 2020, 18:24
मैं चाहता हूं कि तंत्रिका नेटवर्क यथासंभव वास्तविक आउटपुट के करीब एक संख्या का अनुमान लगाए। कौन सा सक्रियण कार्य इस परिदृश्य के लिए सबसे उपयुक्त है? ....
मैं निम्नलिखित फ़ंक्शन के अनुसार प्रत्येक मान को एक Numpy सरणी 'x' में बदलने की कोशिश कर रहा हूं: f(x) = { x^2 , x >= 0 and -x^2 , x < 0 } @numpy.vectorize def squares(x): return (x ** 2) if x >= 0 else -(-x ** 2) ऐसा लग रहा था कि फ़ंक्शन ठीक से निष्पादित हो गया है, लेकिन जब इसके लिए....
15 जुलाई 2020, 06:13