Вопросы с тегами [keras]

0

голосов
0

ответ
2

Просмотры

Есть ли нормализации изображений путем деления на 255 информации утечки между поездом и тестового набора?

Я видел деление на 255, которые использовались много раз, как в нормализации CNN учебники в Интернете, и это делается по всему набору данных, прежде чем тест поезда раскола. Я был под впечатлением, что тестовый набор должен быть нормализованы в соответствии со средним / станд / максиминными и т.д. обучающего набора. При использовании / 255 по всему набору данных, по-видимому, мы даем обучение установить чувство для тестового набора. Это правда? Что такое правильный подход здесь? Это: x_train = (x_train - x_train_mean) / x_train_std x_test = (x_test - x_test_mean) / x_test_std или это: x_train = (x_train - x_train_mean) / x_train_std x_test = (x_test - x_train_mean) / x_train_std или это: данные / 255 Спасибо I» ве было предложено предоставить предысторию, что я пробовал: Это, кажется, ungoogleable, я не нашел какого-либо обсуждения на нем.
SCool
0

голосов
0

ответ
22

Просмотры

Design neural network to find inputs with highest probability of class

I am designing a neural network for classification with the aim to find the inputs with the highest probability that they belong to one of two classes. There are two classes, class A and class B. I have a set of data of which I want to find the inputs that have the highest probability that they belong to class B. This is different to conventional classification in that I'm not interested in the correct labelling of all inputs. I'm only interested in the correct labelling of the inputs that are labelled with a high probability to belong to class B. So the accuracy of the network could be calculated like this: Train the neural network Feed the validation data into the network Sort the resulting outputs, together with the known targets, by the returned probability for class B Take the top N samples, e.g. top 1% (now we have the outputs with the highest probability for class B) Count how many of the taken samples were actually of class B The accuracy is the number of actual instances of class B counted, divided by the number of samples taken N Say, we have a simple network like this: model = keras.Sequential([ keras.layers.Dense(7, input_dim=len(inputs_training[0]), activation=tf.nn.relu, kernel_regularizer=keras.regularizers.l2(0.0)), keras.layers.Dense(7, activation=tf.nn.relu, kernel_regularizer=keras.regularizers.l2(0.000001)), keras.layers.Dense(7, activation=tf.nn.relu, kernel_regularizer=keras.regularizers.l2(0.000001)), keras.layers.Dense(1, activation=tf.nn.sigmoid, kernel_regularizer=keras.regularizers.l2(0.00000)) ]) model.compile(optimizer='adam', loss=binary_crossentropy, metrics=['accuracy']) model.fit( np.array(inputs_training), np.array(targets_training), epochs=15, verbose=0, class_weight={0: 1, 1: 4} ) The problem is that, the more features (inputs) I add, the less accurate the prediction becomes - even though each features performs well on it's own. For example, I can use a single feature that gives me 40% accuracy in the top 1%. If I add two more features that perform similarly on their own, the accuracy drops to, say, 25-30%. Class B makes about 15% of the data. The second problem is that the accuracy in the top 1% fluctuates a lot. I have tried: Changing the number of layers / neurons, epochs Changing the class weights Changing regularisation parameters, including using l1 Trying different loss functions I speculate that none of this works because the neural network is optimising for the classification of all inputs, not optimizing to produce the highest accuracy in the top 1%. Is there a way how I can stir the neural network to optimize so that the most probable results are correct, but the remaining 99% can tend to be mislabelled? Demo code: https://pastebin.com/CnDpCjdp
ig-dev
1

голосов
2

ответ
34

Просмотры

Как укладывать сверточного слоя и LSTM с помощью Tensorflow2.0 альфа?

Я пытаюсь реализовать нейронную сеть для запуска задачи NLP с сверточным слоем с последующим вверх с помощью LSTM слоя. Я в настоящее время экспериментирует с новым Tensorflow 2.0, чтобы сделать это. Однако, при построении модели, я обнаружил ошибку, что я не мог понять. # Входная форма обучения и набора валидации (1000, 1, 512), (500, 1, 512) Модель Модель = keras.Sequential () model.add (keras.layers.InputLayer (input_shape = (None, 512)) ) model.add (keras.layers.Conv1D (128, 1, активация = "Relu")) model.add (keras.layers.MaxPooling1D ((2))) model.add (keras.layers.LSTM (64, активация = "TANH")) model.add (keras.layers.Dense (6)) model.add (keras.layers.Activation ( "SoftMax")) Этот InvalidArgumentError ошибка: Пытались укладывать элементы пустой список с не полностью -определенной element_shape: [, 64] [[{{узел unified_lstm_16 / TensorArrayV2Stack / TensorListStack}}]] [Оп: __ inference_keras_scratch_graph_26641] Сначала я попытался проверить, есть ли какие-либо вопросы, касающиеся реализации слой Conv1D с LSTM слоем. Я нашел этот пост, что предложенный так, что я видоизмененный слой между сверточным слоем и LSTM слоем. Но это все еще не работает, и я получил другую ошибку вместо этого. Это сообщение кажется похоже, но он не использует Tensorflow 2,0 и не ответить до сих пор. Я также нашел этот пост, который имеет такое же намерение укладки сверточных и LSTM слоев. Но он использует Conv2D вместо Conv1D. Это сообщение также предлагает использовать видоизмененный выход сверточного слоя со встроенным уровнем, который называется Reshape. Тем не менее, я до сих пор получил ту же ошибку. Я также попытался указать input_shape в LSTM слое. Модель = keras.Sequential () модели. Добавить (keras.layers.InputLayer (input_shape = (None, 512))) model.add (keras.layers.Conv1D (128, 1, активация = "Relu")) model.add (keras.layers.MaxPooling1D ((2 ))) model.add (keras.layers.LSTM (64, активация = "TANH", input_shape = (Не, 64))) model.add (keras.layers.Dense (6)) model.add (keras.layers .Activation ( «SoftMax»)) И я до сих пор получил ту же ошибку, в конце концов. Я не уверен, если я понимаю, как стек 1-мерный сверточного слой и LSTM слой. Я знаю, что TF2.0 еще альфа, но сделал кто-то может указать на то, что мне не хватает? заранее спасибо Плотные (6)) model.add (keras.layers.Activation ( "SoftMax")) И я до сих пор получил ту же ошибку, в конце концов. Я не уверен, если я понимаю, как стек 1-мерный сверточного слой и LSTM слой. Я знаю, что TF2.0 еще альфа, но сделал кто-то может указать на то, что мне не хватает? заранее спасибо Плотные (6)) model.add (keras.layers.Activation ( "SoftMax")) И я до сих пор получил ту же ошибку, в конце концов. Я не уверен, если я понимаю, как стек 1-мерный сверточного слой и LSTM слой. Я знаю, что TF2.0 еще альфа, но сделал кто-то может указать на то, что мне не хватает? заранее спасибо
Imperator123
1

голосов
2

ответ
32

Просмотры

Как найти число не-нулей в массиве Keras

Я пытаюсь найти количество нулей в пользовательской функции потерь для Keras. Защиту root_mean_squared_error (y_true, y_pred): Если эта функция потерь вводится здесь: model.compile (оптимизатор = синг, потеря = root_mean_squared_error, метрика = [metrics.mse, root_mean_squared_error]) Я пытаюсь найти число ненулевых значений в массиве «y_true» и разделить мой номер на эту величину. Как я могу найти количество ненулевых элементов в y_true?
Rehaan Ahmad
2

голосов
2

ответ
192

Просмотры

TensorFlow 2,0 Keras: Как написать резюме изображений для TensorBoard

Я пытаюсь настроить распознавание образов CNN с TensorFlow 2,0. Для того, чтобы иметь возможность анализировать мое изображение увеличение я хотел бы видеть изображения кормлю в сеть в tensorboard. К сожалению, я не могу понять, как сделать это с TensorFlow 2.0 и Keras. Я также не реально найти документацию по этому вопросу. Для простоты, я показываю код в MNIST. Например, Как бы я добавить резюме изображений здесь? импорт tensorflow в ТФ (x_train, y_train), _ = tf.keras.datasets.mnist.load_data () Защиту шкала (изображение, метка): возвращение tf.cast (изображение, tf.float32) / 255,0, метка Защиту увеличения (изображения , этикетка): возврат изображения, метка # ничего не делать ата набор данных = tf.data.Dataset.from_tensor_slices ((x_train, y_train)) набор данных = dataset.map (шкала) .map (увеличить) Пакетную (32) модели = тс. keras.models.Sequential ([tf.keras.layers.Flatten (input_shape = (28,
andy
1

голосов
0

ответ
52

Просмотры

Потеря не уменьшается в нейронной сети

Я реализую вариант CNN, описанный в этом документе. Моя проблема заключается в том, что потеря не уменьшается, и я не понимаю, почему. То же самое надо сказать и о точности (застрял на 0,5 больше или меньше). Эта проблема классификации 2 классов. Я использую данные с этого сайта: Я подозревал, что оптимизатор, поэтому я изменил его Whithout каких-либо улучшений. Я уверен, что данные, я использую это нормально, потому что я использовал его на LSTM и классификатор было хорошо. Вот мой код: от keras.layers импортирует Встраивание из keras.layers импорта Conv2D из keras.models импорта Sequential из keras.layers импорта MaxPooling2D из keras.layers импорт Reshape из keras.layers импорт Развертки из keras.layers импорта Плотными из keras. слои импорт Выпадения из keras.layers импорта ввода из keras импорта бэкэнда как K из keras. Модели импорта модели импорта tensorflow в ТФ из sklearn импорта предварительной обработки импорта keras импорта NumPy в н.п. импорт PDB #using несколько фильтров конфигурации = tf.ConfigProto () # Не предварительно выделить память; выделить по мере необходимости config.gpu_options.allow_growth = True # Разрешить только в общей сложности половину памяти GPU, которые будут выделены config.gpu_options.per_process_gpu_memory_fraction = 0,7 # Создание сеанса с указанными выше параметрами, указывающими. config.gpu_options.per_process_gpu_memory_fraction = 0,65 K.tensorflow_backend.set_session (tf.Session (конфиг = конфигурация)) класс Классификатор (): Защита __init __ (я, Vocab, MAXLEN = 75): self.model = Sequential () self.EMBED_DIM = 30 self.batch_size = 30 self.MAX_SEQUENCE_LENGTH = MaxLen self.nb_labels = 2 self.model = Sequential () self.Vocab = Vocab DEF нужным (я, X, у): #pdb.
chiplusplus
1

голосов
0

ответ
57

Просмотры

Erorr использованием keras 2.0 в R

Я пытаюсь скопировать код Siraj для прогнозирования цен на акции в R (https://github.com/llSourcell/How-to-Predict-Stock-Prices-Easily-Demo). Это мой код: URL
Mislav
1

голосов
0

ответ
85

Просмотры

Пользовательские Imagenet Dataset

Я хочу сделать свой собственный набор данных imagenet принимая 20 классов выхода из 1000. Я могу преобразовать его в формат TFRecords но я хочу keras дружественной версии для него, как keras является более гибким для меня.
Ayush Agarwal
1

голосов
1

ответ
267

Просмотры

ValueError: Ошибка при проверке целевого: ожидается, dropout_82 иметь 3 размеры, но получили массив с формой (7, 7500)

Привет я должен реализовать CNN, я новичок с Keras и Tensorflow поэтому я извинялся, если я делаю ошибку. Это то, что я делаю: набор данных является массив NumPy (23, 4800000), #number звуковых дорожек х #number образцов. Таким образом, я расщепляюсь набором данных в поезде (10, 4800000), проверка (7, 4800000) и тест (6, 4800000) процесс свертки вдоль столбцов, так что я должен изменить вход в системе: X = np.expand_dims (поезд, оси = 2) Y = np.expand_dims (действует, ось = 2) код первой части является CNN: CNN = Последовательное () cnn.add (Conv1D (40, 80, input_shape = (4800000, 10))) cnn.add (MaxPooling1D (pool_size = 2)) cnn.add (Conv1D (40, 8000)) cnn.add (MaxPooling1D (pool_size = 20)) cnn.add (Flatten ()) CNN. 4783920) 0 =============================================== ================== Всего Титулы: 12,832,080 обучаемый PARAMS: 12,832,080 Non-обучаемый PARAMS: 0 _______________________________ cnn.compile (убыток = 'mean_squared_error', оптимизатор = 'адам') спп .Поставить (X, Y) и ошибка: ValueError: ошибка при проверке ввода: ожидается conv1d_3_input иметь форму (None, 4800000, 10), но получили массив с формой (4800000, 10, 1) Я не очень понимаю, что это означает, пожалуйста, кто-то может мне помочь? Так что в эти дни я пытался упростить свою работу. X_train, X_valid = (7,7500,1), 7 количество дорожек, 7500 образцов и 1 канал y_train, y_valid = (7,7500), для каждого из 7 треков соответствует значение вероятности в любом образце. Модель = Последовательное () model.add (Conv1D (40, 80, активация = 'Relu', input_shape = (7500,
shawk
1

голосов
0

ответ
383

Просмотры

Как отключить cuDNN или заставить его иметь детерминированное поведение при использовании Keras с TensorFlow бэкэндом?

Я использую Keras с TensorFlow бэкэндом на GPU. Как я могу отключить cuDNN или заставить его иметь детерминированное поведение? Существует четкий способ Theano бэкэнда как уже упоминался здесь: https://github.com/keras-team/keras/issues/2479 Но я не могу найти подобный путь TensorFlow. Любая помощь очень ценится.
Behrouz
1

голосов
1

ответ
1.4k

Просмотры

Как реализовать пользовательский слой остроумие несколько выходов в Keras?

Как указано в названии, я задавался вопросом о том, как иметь собственный слой возвращающегося несколько тензоров: OUT1, out2, ... OUTN? Я попробовал keras.backend.concatenate ([out1, OUT2], ось = 1) Но это работает только для тензоров, имеющих одинаковую длину, и это должно быть другое решение, а не конкатенации два от двух тензоров каждый раз, это?
Tassou
1

голосов
0

ответ
1.1k

Просмотры

installed keras and tensorflow but getting error

я получаю эту ImportError даже я установил все необходимые модули, такие как keras, tensorflow и т.д., я не в состоянии разрешить его даже работая в Конде среды. ImportError: Нет модуль с именем python.training #Imports импорта ОС от случайного импорта перетасовать #Keras импорта из keras.preprocessing.image импорта ImageDataGenerator, array_to_img, img_to_array, load_img из keras.models не импортировать Sequential из keras.layers импорта Convolution2D, MaxPooling2D из keras. слои импорт Activation, Dropout, расправьте, Плотное #Imports импорта ОС от случайного импорта перетасовки #Keras импорта из keras.preprocessing.image импорта ImageDataGenerator, array_to_img, img_to_array, load_img из keras.models импортируют Sequential из keras.layers импорт Convolution2D, MaxPooling2D из keras .layers импорта Activation, Выпадение, Свести, Плотные Использование TensorFlow бэкенд. -------------------------------------------------- ------------------------- ImportError Traceback (самый последний вызов последнего) в () 4 5 #Keras импорта ----> 6 из keras. preprocessing.image ImageDataGenerator импорт, array_to_img, img_to_array, load_img 7 из keras.models импорта Последовательная 8 из keras.layers импортировать Convolution2D, MaxPooling2D построить / bdist.macosx-10,13-x86_64 / яйцо / keras / __ init__.py в () построить / bdist .macosx-10,13-x86_64 / яйцо / keras / Utils / __ init__.py в () построить / bdist.macosx-10,13-x86_64 / яйцо / keras / Utils / conv_utils.py в () построить / bdist.macosx-10,13-x86_64 /egg/keras/backend/__init__.py в () строите / bdist.macosx-10,13-x86_64 / яйцо / keras / бэкэнд / tensorflow_backend.py в () ImportError: нет модуль с именем python.training
Amit kumar
1

голосов
0

ответ
116

Просмотры

Решение FizzBuzz с Keras

Я пытаюсь решить FizzBuzz с помощью Keras и она работает достаточно хорошо для чисел от 1 до 10000 (90-100% винрейт и близка к 0 потерь). Однако, если я попытаюсь еще более высокие цифры, то есть число от 1 до 100000 не кажется, хорошо работать (~ 50% винрейт, потеря ~ 0,3). На самом деле, он выполняет довольно плохо, и я понятия не имею, что я могу сделать, чтобы решить эту задачу. До сих пор я использую очень простую нейронную сеть архитектуру с 3 скрытых слоями: модель = Sequential () model.add (Плотный (2000, input_dim = state_size, активация = "Relu")) model.add (Плотная (1000, активация = "Relu")) model.add (Плотные (500, активация = "Relu")) model.add (Плотные (num_actions, активация = "SoftMax")) model.compile (убыток = 'categorical_crossentropy', оптимизатор = 'адам' , метрики = [ "точность" ]) Я обнаружил, что чем больше нейронов, я, тем лучше он выполняет, по меньшей мере, для чисел ниже 10.000. Я готовлю свою нейронную сеть в пошагово, а это означает, что я не вычисляя входы и цели заранее, но вместо того, чтобы обучать шаг за шагом сети. Опять же, это работает очень хорошо, и это не должно сделать разницу правильно? Вот главный цикл: для эпохи в диапазоне (np_epochs): действие = СЛУЧАЙНОЕ_ЧИСЛО () x_raw = to_binary (действие) х = np.expand_dims (x_raw, 0) = model.predict предсказания (х) у, победа, _, _ = check_prediction (действие, прогнозирование) memory.append ((x_raw, у)) curr_batch_size = мин (batch_size, длина (память)) = random.sample партия (память, curr_batch_size) входов = [] цели = [] для г, т в партия: inputs.append (я) targets.append (т), если победа: побед + = 1 потеря, точность = model.train_on_batch (np.array (входы), np.array (цели)) Как вы можете видеть, я готовлю свою сеть не на десятичных чисел, но преобразовать их в бинарный первый перед подачей его в сеть. Еще одна вещи, чтобы отметить здесь, что я использую память, чтобы сделать его более как подконтрольные проблемы. Я думал, что это может работать лучше, если поезд на числах, что нейронная сеть уже обучена. Это, кажется, не имеет никакого значения вообще. Что я могу сделать, чтобы решить эту конкретную проблему с нейронной сетью? Я имею в виду, это так трудно для функции аппроксиматора, чтобы выяснить простую математику за FizzBuzz? Я делаю что-то неправильно? Вы можете предложить другую архитектуру? Смотрите мой код на MachineLabs. Вы можете просто раскошелиться мою лабораторию и возиться с ним, если вы хотите. Для просмотра в код, просто нажмите на кнопку '
LordTribual
1

голосов
2

ответ
170

Просмотры

Ошибка ввода формы не один ожидается

Я видел много сообщений о такого рода ошибки ввода формы с Keras, но я до сих пор не понимаю. Я пытаюсь решить проблему классификации с Keras. Мой x_data (1 пример!) Является массив массивов (4 массивов длины 40). Количество классов, чтобы предсказать в конце 5. Существует несоответствие между тем, что первым входным слоем ожидать и что я даю. Вот моя модель: self.model = Sequential () self.model.add (Плотные (32, input_shape = (4,40))) self.model.add (Плотные (5, активация = 'SoftMax')) Я думаю, форма должна быть (4,40), потому что дает массив 4 массивов длины 40. Я считаю, что выходной размер последнего слоя должна быть 5, потому что есть 5 возможных классов. Вот это формат / тип / форма 1 X: listVecteursStackBuffer: [[0,05371463 0,03648512 0,06098862 0,01041014 -0,01680853 0,02132057 0,06100727 -0.
Johanna Simoens
1

голосов
0

ответ
131

Просмотры

a TypeError in fit function when using keras with theano backend

моя Theano версия 1.0.1 + неизвестна. мой keras версия 2.1.3 я уверен, реализации сложены LSTM автоассоциатора в keras и это мой код: = x_train.shape временных шаги [1] = 1 input_dim входы = Вход (batch_shape = (1, временные шаги, input_dim)) кодируются = LSTM (7, return_sequences = True) (входы), кодируемый = LSTM (5, return_sequences = True) (кодируется), кодируемый = LSTM (3) (кодируется) декодируется = RepeatVector (временные шаги) (кодированные) декодируются = LSTM (5, return_sequences = True ) (декодированы) декодированные = LSTM (7, return_sequences = True) (декодированы) декодируется = LSTM (input_dim, return_sequences = True) (декодированы) sequence_autoencoder = модели (входы, декодируется) кодер = Модель (входы, закодированный) sequence_autoencoder.compile ( потери = 'mean_squared_error', оптимизатор = 'Адам') sequence_autoencoder.fit (x_train, x_train, эпохи = 100, batch_size = 1, перетасовка = True,) Это дает мне следующее сообщение об ошибке: Ошибка типа: Радиопередача структура выходного сканирования (TensorType (float32, 3D)) не согласуется с тем, представленной в output_info (TensorType (float32, Col)). Выход на оси 1, значение False, но это правда на оси 2 в output_info. Это может произойти, если один из размерности закреплен на 1 на входе, в то время как он по-прежнему переменная на выходе, или заместитель verca. Вы должны привести их в соответствие, например, с помощью theano.tensor. {Patternbroadcast, unbroadcast, addbroadcast}.
Mostafa Kotb
1

голосов
0

ответ
202

Просмотры

модель сохранения в файле keras JSon

Я видел два разных вида модели стиля экономии в Keras. model.save (os.path.join (model_path, имя файла)) и другой использует JSON и вес model_json = model1.to_json () с открытым ( "model1.json", "ш"), как json_file: json_file.write (model_json ) model1.save_weights ( «model1.h5») печать ( «Сохраненные модели на диск»), что является differens между этими двумя различными моделями?
james james
1

голосов
0

ответ
501

Просмотры

CTC Loss не уменьшается в Keras

I am using Keras with theano backend for online handwriting recognition problem as solved in this paper: http://papers.nips.cc/paper/3213-unconstrained-on-line-handwriting-recognition-with-recurrent-neural-networks.pdf. I followed the Keras image ocr example https://github.com/keras-team/keras/blob/master/examples/image_ocr.py and modified the code for online handwriting samples instead of image samples. On training with a dataset of 842 text lines for 200 epochs that takes ~6 minutes per epoch, the CTC logloss decreases just after the first epoch but stays constant for all remaining epochs. I have tried with different optimizers (sgd, adam, adadelta) and learning rates(0.01,0.1,0.2) as well but there is hardly any variation in loss. x_train.shape=(842,1263,4) [842 text lines with 1263 stroke points in 4 dimension] y_train.shape=(842,64) [842 text lines with 64 max_len characters per line] types of labels (len_alphabet)= 66 Code snapshot: size=x_train.shape[0] trainable=True inputs = Input(name='the_input', shape=x_train.shape[1:], dtype='float32') rnn_encoded = Bidirectional(GRU(64, return_sequences=True), name='bidirectional_1', merge_mode='concat',trainable=trainable)(inputs) birnn_encoded = Bidirectional(GRU(64, return_sequences=True), name='bidirectional_2', merge_mode='concat',trainable=trainable)(rnn_encoded) output = TimeDistributed(Dense(66, activation='softmax'))(birnn_encoded) y_pred = Activation('softmax', name='softmax')(output) labels = Input(name='the_labels', shape=[max_len], dtype='int32') input_length = Input(name='input_length', shape=[1], dtype='int64') label_length = Input(name='label_length', shape=[1], dtype='int64') loss_out = Lambda(ctc_lambda_func, output_shape=(1,), name='ctc')([y_pred,labels, input_length, label_length]) model = Model(inputs=[inputs, labels, input_length, label_length], outputs=loss_out) model.compile(loss={'ctc': lambda y_true, y_pred: y_pred}, optimizer='Adadelta') absolute_max_string_len=max_len blank_label=len(alphabet)+1 labels = np.ones([size, absolute_max_string_len]) input_length = np.zeros([size, 1]) label_length = np.zeros([size, 1]) source_str = [] for i in range (x_train.shape[0]): labels[i, :] = y_train[i] input_length[i] = x_train.shape[1] label_length[i] =len(y_train[i]) source_str.append('') inputs_again = {'the_input': x_train, 'the_labels': labels, 'input_length': input_length, 'label_length': label_length, 'source_str': source_str # used for visualization only } outputs = {'ctc': np.zeros([size])} model.fit(inputs_again, outputs, epochs=200,batch_size=25) My complete code is hosted here: https://github.com/aayushee/HWR/blob/master/Run/CTC.py and these are the screenshots of the model and training: https://github.com/aayushee/HWR/blob/master/Run/model.png https://github.com/aayushee/HWR/blob/master/Run/epochs.png Please suggest if the model architecture needs to be modified, some other optimizer would be better for this problem or if there is some thing else that can fix the issue. Thanks!
Aayushee
1

голосов
0

ответ
128

Просмотры

билинейная выборка в tensorflow

theano.tensor.nnet.abstract_conv.bilinear_upsampling (вход, отношение = нет, frac_ratio = нет, batch_size = нет, num_input_channels = None, use_1D_kernel = True) Я не нужно заменить эту команду Theano бэкэнд с Keras 2.0 или tensorflow бэкэндом. Какие-либо предложения?
Sal A.
1

голосов
0

ответ
56

Просмотры

Кодирование числа и текст в keras

Я хотел бы обрабатывать символическое уравнение в нейронной сети с использованием keras. В качестве простого примера, предположим, что вход две линии (то есть 2x + 4y + 2 = 0, х + 7y -4 = 0), а выход равен 0, если линии пересекаются и 1, если они параллельны. Для того, чтобы сделать это, уравнения нужно быть закодированы каким-то образом. С его помощью так же, как текст не работает, а проблема, на мой взгляд, является то, что кодирование не сохраняет порядок между числами. Есть ли способ кодирования текста и чисел по-разному, что порядок между числами хранятся?
John
1

голосов
1

ответ
200

Просмотры

Conv1D не обновляет веса. (Все ноль) и тестирование выходов всегда же которое равно последний слой весов?

Я хотел бы использовать 1D CNN предсказать следующий день солнечную энергию. Разрешение данных серии времени один час, а длина один год. Я готовлю модель с данными 1-й день, чтобы предсказать день 2. xtrain = day1, ytrain = day2, XTEST = Day3 предсказать DAY4. 24 часа ввод данных -> CNN -> 24 часа выход я обучен данные в течение 10 дней (образцы); затем предсказал 4 дней, проблема заключается в том, что CNN всегда дает то же значение выходной независимо от входного сигнала. Затем я проверил веса, только веса выходного слоя равны нулю. Кроме того, выходное значение не изменяется с различным набором входных данных. Ссылка для данных: https://mega.nz/#!NpoTzIBJ!U5l8ToQgcJ6xif2tMjIrXuace3skhrtwLEdeoWe_FkM изображения матрицы весов: Графика предсказанных значений: Код:
Reiso
1

голосов
0

ответ
236

Просмотры

How to view the intermediate layers of a keras model?

Я хочу, чтобы визуализировать промежуточные слои из keras модели, как это изображение. Я использую модель CNN в github.com/EN10/KerasMNIST, который уже имеет предварительно обучен модель. и модель выглядеть этот слой (типа) Output Shape Param # ==================================== не ============================= conv2d_1 (Conv2D) (Отсутствует, 26, 26, 32) 320 _________________________________________________________________ conv2d_2 (Conv2D) (None , 24, 24, 64) 18496 _________________________________________________________________ max_pooling2d_1 (MaxPooling2 (None, 12, 12, 64) 0 _________________________________________________________________ dropout_1 (Выпадение) (Отсутствует, 12, 12, вторая свертка и выбывания слоев этой модели и в соответствии с этим ответом я просто должен сделать прямой проход к слою, который я хочу, чтобы визуализировать. Проблема является изображение в измерении 28x28x1, тогда как первый и второй аспект свертки слоя 26x26x32 и 24x24x64 соответственно, а отсев слой 12x12x64. Как преобразовать это dimensios размерности изображения, так что мы можем получить изображения, похожие на один из приведенных выше?
Eka
1

голосов
0

ответ
156

Просмотры

Keras: Почему TimeDistributed не используется вместо плотны в официальном примере seq2seq?

Я сейчас пытаюсь построить seq2seq модель на вершине Keras. Я упомянул об этом официальном примере seq2seq, но я задавался вопрос, почему не использовать TimeDistibuted слоя вместо плотного. # Настройка декодера, используя `encoder_states` в исходное состояние. decoder_inputs = вход (форма = (None, num_decoder_tokens)) # Мы создали наш декодер, чтобы вернуть полные выходные последовательность, # и вернуть внутренние состояния, а также. Мы не используем # возвращаемые состояния в модели обучения, но мы будем использовать их в умозаключениях. decoder_lstm = LSTM (latent_dim, return_sequences = True, return_state = True) decoder_outputs, _, _ = decoder_lstm (decoder_inputs, initial_state = encoder_states) decoder_dense = Плотные (num_decoder_tokens, активация = 'SoftMax') #
Sundars
1

голосов
1

ответ
147

Просмотры

Keras сверточной сеть скоринг низко на CIFAR-10 Dataset

Я пытаюсь обучить CNN на Dataset CIFAR-10 в Keras, но я только получаю точность около 10%, в основном случайным образом. Я тренируюсь более 50 эпох, с партией размером 32 и скорости 0,01 обучения. Есть ли что-нибудь, в частности, что я делаю неправильно? импорт ОС импорт NumPy в н.п. импорта панд как э.р. от PIL импорта изображения из keras.models импорта модели из keras.layers импортируют Input, Плотный, Conv2D, MaxPool2D, Выпадение, Свести из keras.optimizers импорта синг из keras.utils импорта np_utils # trainingData = np.array ([np.array (Image.open ( "поезд /" + ж)) для F в os.listdir ( "поезд")]) #shape: 50k, 32, 32, 3 # testingData = пр. массив ([np.array (Image.open ( "тест /" + ж)) для F в os.listdir ( "тест")]) #shape: такой же, как обучение # # trainingLabels = np.array (pd.read_csv ( "trainLabels.csv")) [:,
Rushil Joshi
1

голосов
0

ответ
119

Просмотры

Добавить дополнительные слои предварительно подготовленные модели на входе в tensorflow

У меня есть фасет модель (СКРТ и мета-файлы), который принимает ввод размера (batch_size, 160,160,3) и дает выход размера (batch_size, 128). Мой вход к-мерный вектор и у меня есть функция предварительной обработки (состоит из некоторой свертки и объединения слоев), который принимает мой вход и дает выход (batch_size, 160,160,3). Как добавить эту функцию, чтобы обученная модель в tensorflow и сохранить модель? Я новичок в ТФ.
N_Divyasri
1

голосов
1

ответ
477

Просмотры

Inputting both Word-level and Char-level embedding in LSTM for PoS tagging

Я имею в виду эту научно-исследовательской работу «Изучение Представления Character уровня для частеречной разметки», где автор говорит: «Предлагаемая нейронная сеть использует сверточный слой, который позволяет эффективное извлечение функции из слов любого размера Во время мечения. сверточный слой формирует вложения символов уровня для каждого слова, даже для тех, которые находятся за пределами словаря «. Я учусь строить эффективный Pos Tagger, используя этот подход, но я не могу представить себе формат входного сигнала. например: x_train, y_train, x_test, y_test = load_dataset () Что бы экземпляр x_train и y_train выглядеть? Я не понимаю, как я ставлю слово & обугленного вложение (которые зависят друг от друга) вместе в модели, так что он может узнать о них обоих одновременно. Я планирую поставить этот входной набор данных в модели LSTM, как следующие: М = Последовательная () M.add (Вложение ()) M.add (LSTM ()) M.add (Выпадение ()) M.add (LSTM () ) M.add (Отключения ()) M.add (TimeDistributed (Плотные ())) M.compile (убыток = 'categorical_crossentropy', оптимизатор = адам, метрика = [ 'точность']) Может кто-нибудь с опытом работы в этой области может помочь в обмене некоторых методов или идеи, чтобы поставить меня на правильном пути? Я попытался здания Pos Tagger с ручной работы функций (total_terms, срок, is_first, is_last, is_capitalized, is_all_caps, is_all_lower, приставка-1, приставка-2, приставка-3, суффикс-1, суффикс-2, суффикс-3 , prev_word, next_word), но я хочу, чтобы построить модель без них на этот раз. добавить (TimeDistributed (Плотный ())) M.compile (убыток = «categorical_crossentropy», оптимизатор = адам, метрика = [ «точность»]) Может кто-нибудь с опытом работы в этой области может помочь в обмене некоторых методов или идеи, чтобы положить меня на правильном пути? Я попытался здания Pos Tagger с ручной работы функций (total_terms, срок, is_first, is_last, is_capitalized, is_all_caps, is_all_lower, приставка-1, приставка-2, приставка-3, суффикс-1, суффикс-2, суффикс-3 , prev_word, next_word), но я хочу, чтобы построить модель без них на этот раз. добавить (TimeDistributed (Плотный ())) M.compile (убыток = «categorical_crossentropy», оптимизатор = адам, метрика = [ «точность»]) Может кто-нибудь с опытом работы в этой области может помочь в обмене некоторых методов или идеи, чтобы положить меня на правильном пути? Я попытался здания Pos Tagger с ручной работы функций (total_terms, срок, is_first, is_last, is_capitalized, is_all_caps, is_all_lower, приставка-1, приставка-2, приставка-3, суффикс-1, суффикс-2, суффикс-3 , prev_word, next_word), но я хочу, чтобы построить модель без них на этот раз.
Grimlock
1

голосов
1

ответ
965

Просмотры

Numpy.NumpyArray не имеет атрибута Read

Я пытаюсь проверить свертку нейронную сеть с изображениями, которые хранятся в папке в корневой директории проекта. У меня есть некоторый код, который дает мне ошибку и я не уверен, почему и где именно ошибка происходит из. Я буду иметь код и полный след задней ошибки: код (есть 6 JPG изображений в папке) импорт ОС для testing_image в os.listdir ( «testing_images /»): full_detector ( «testing_images /» + testing_image) полная отслеживающий ошибки ----------------------------------------------- ---------------------------- AttributeError Traceback (самый последний вызов последнего) ~ \ Anaconda3 \ envs \ deep_learning_1 \ Lib \ сайт-пакеты \ PIL \ Image.py в открытом (∥f∥p, режим) 2546 попытка: -> 2547 fp.seek (0) 2548 (кроме AttributeError, io.UnsupportedOperation): AttributeError: ' numpy.ndarray»объект не имеет атрибута„искать“Во время обработки вышеуказанного исключения, другое исключение произошло: AttributeError Traceback (самый последний вызов последнего) в () 4 импорта зева 5 для testing_image в os.listdir („testing_images /“): ----> 6 full_detector ( 'testing_images /' + testing_image) в full_detector (image_path) 3 DEF full_detector (image_path): 4 pred_image = cv2.imread (image_path) ----> 5 dog_breed = Resnet_Predict_Breed (pred_image) 6, если dog_detector (image_path): 7 печати ( «это собака с породой: {}». формат (породы)) в Resnet_Predict_Breed (IMG_PATH) 2 ### и возвращает собаку породу, которая предсказанная модель. 3 Защита Resnet_Predict_Breed (IMG_PATH): ---->
Omar Jandali
1

голосов
1

ответ
437

Просмотры

Индекс кортеж из диапазона от максимального аккумулирования: IndexError

Я использую keras функционал апи и у меня есть тензор форма phrasing.shape = (?, 553777, 19, 3) Теперь я хочу взять максимальную особенность Юниграммы и биграммы & триграммы поэтому ожидаемая форма должна быть (?, 553777, 19, 1), так что я добавил эту линию рН = MaxPooling2D (pool_size = (1,3)) (выражение) и получить эту ошибку: индекс кортежа вне диапазона: IndexError
addam
1

голосов
1

ответ
266

Просмотры

Prediction Failed on keras model in Google ML-Engine

I am working through a tutorial at the moment which covers using a Keras based model on Google's cloud services with their ML-Engine. At this stage I have the model working fine for local predictions etc, and have successfully placed the exported model into a GC-bucket. I have also created the google cloud ML-Engine model successfully. When I try to run a prediction off the cloud hosted model, I the following error is produced. Error: C:\mydir>gcloud ml-engine predict --model=[mymodel] --json-instances=sample_input_prescaled.json { "error": "Prediction failed: Error during model execution: AbortionError(code=StatusCode.FAILED_PRECONDITION, details=\"Attempting to use uninitialized value dense_4/bias\n\t [[Node: dense_4/bias/read = Identity[T=DT_FLOAT, _class=[\"loc:@dense_4/bias\"], _output_shapes=[[1]], _device=\"/job:localhost/replica:0/task:0/cpu:0\"](dense_4/bias)]]\")" } I can see that this error is refering to an uninitialised value 'dense_4', which looks like the last layer within the Keras model, but I'm not sure if/why this would be tripping up the process? Does anyone have some insight to the cause of this error message? Below is the keras model which I am using from the tutorial, and the json file for the test prediction. export_model.py import pandas as pd import keras from keras.models import Sequential from keras.layers import * import tensorflow as tf training_data_df = pd.read_csv("sales_data_training_scaled.csv") X = training_data_df.drop('total_earnings', axis=1).values Y = training_data_df[['total_earnings']].values # Define the model model = Sequential() model.add(Dense(50, input_dim=9, activation='relu')) model.add(Dense(100, activation='relu')) model.add(Dense(50, activation='relu')) model.add(Dense(1, activation='linear')) model.compile(loss='mean_squared_error', optimizer='adam') # Create a TensorBoard logger logger = keras.callbacks.TensorBoard( log_dir='logs', histogram_freq=5, write_graph=True ) # Train the model model.fit( X, Y, epochs=50, shuffle=True, verbose=2 ) # Load the separate test data set test_data_df = pd.read_csv("sales_data_test_scaled.csv") X_test = test_data_df.drop('total_earnings', axis=1).values Y_test = test_data_df[['total_earnings']].values test_error_rate = model.evaluate(X_test, Y_test, verbose=0) print("The mean squared error (MSE) for the test data set is: {}".format(test_error_rate)) model_builder = tf.saved_model.builder.SavedModelBuilder("exported_model") inputs = { 'input': tf.saved_model.utils.build_tensor_info(model.input) } outputs = { 'earnings': tf.saved_model.utils.build_tensor_info(model.output) } signature_def = tf.saved_model.signature_def_utils.build_signature_def( inputs=inputs, outputs=outputs, method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME ) model_builder.add_meta_graph_and_variables( K.get_session(), tags=[tf.saved_model.tag_constants.SERVING], signature_def_map={ tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY: signature_def } ) model_builder.save() sample_input_prescaled.json { "input": [0.4999, 1.0, 0.0, 1.0, 0.0, 0.0, 0.0, 0.0, 0.5] }
apollocr
1

голосов
1

ответ
320

Просмотры

Первая тренировка эпоха очень медленно

JSON файл настраивается следующим образом: { "floatx": "float32", "эпсилон": 1e-07, "бэкенд": "tensorflow", "image_data_format": "channels_last"} Любые идеи, почему это так? заранее спасибо
Jenia Golbstein
1

голосов
1

ответ
223

Просмотры

ошибка Python: Я установить его правильно, но все еще не работает

Я пытался импортировать следующий код в Python, но произошло сообщение об ошибке. Я использую Python 3.6.4, Windows из keras.models импорта Последовательное сообщение об ошибке: Использование TensorFlow бэкенд. Traceback (самый последний вызов последнего): Файл "", строка 1, в файле "C: \ Users \ Lawrence \ AppData \ Local \ Programs \ Python \ Python36-32 \ Lib \ сайта-пакеты \ keras \ __ init__.py", линии 3, в с. импорт утилиты Файл "C: \ Users \ Lawrence \ AppData \ Local \ Programs \ Python \ Python36-32 \ Lib \ сайта-пакеты \ keras \ Utils \ __ init__.py", строка 6, в с. импорт conv_utils Файл "C: \ Users \ Lawrence \ AppData \ Local \ Programs \ Python \ Python36-32 \ Lib \ сайт-пакеты \ keras \ Drivers \ conv_utils.py", линия 9, в с .. импорт бэкэндом как K File «C: \ Users \ Lawrence \ AppData \ Local \ Programs \ Python \ Python36-32 \ Lib \ сайт-пакеты \ keras \ бэкэндом \ __ init__. пункт установить keras пип установить Последовательный Может кто-нибудь сказать мне, что еще я должен установить или как я должен делать? Спасибо. пункт установить keras пип установить Последовательный Может кто-нибудь сказать мне, что еще я должен установить или как я должен делать? Спасибо.
Yung Lin Ma
1

голосов
0

ответ
20

Просмотры

Keras Ошибка classweights обыкновение поддержку 3D + данных

Я пытаюсь сделать семантическую сегментацию с segnet в keras, давая class_weights для запрессовки () метода как словарь дает class_weight не будет поддерживать для 3D + данных, КИ, мы должны дать sample_weights, но если я дам class_weights как список его working.can мы даем class_weights в списке вместо sample_weights, конечно, не в качестве словаря?
1

голосов
1

ответ
34

Просмотры

умножения форма в keras (?, 15,?, 196)

У меня есть тензор (?, 15, 512) теперь я хочу, чтобы умножить его с (512, 196), почему это форма результат (?, 15,?, 196) он должен быть (?, 15, 196) V, = вход (форма = (512196)) Qw = (?, 15512) Wb_intialization = np.random.randn (512, 512) .astype (np.float32) * np.sqrt (2,0 / (512)) Защита удовольствия (х ): х = np.array (х) = Вб K.variable (Wb_intialization) возвращают K.dot (Wb, В) С = лямбда (удовольствие) (КЯ)
Soad Saleh
1

голосов
1

ответ
258

Просмотры

Как назвать одну модель в другую в Keras?

Моя модель структура показала ниже. Я построил model_1 и получить loss_1. Более того, я пытался добавить процесс предсказывающий из pretrained_model в функции get_loss (), где я могу получить out_1. И я хочу, чтобы сделать сумму loss_1 и loss_2 как потеря model_1 непосредственно. Из-за статический граф механизма tensorflow, как бэкэнд keras, мне кажется, что мой код является неправильным. Как я должен это делать? Защиту get_loss (y_true, y_pred): loss_1 = удовольствие (y_true, y_pred) # эта строка OK loss_2 = pretrained_model (y_pred) # неправильно !!! вернуться loss_1 + loss_2 model_1.compile (оптимизатор, потеря = get_loss) model_1.fit_generator (... ) Вход | model_1 | маркировать out_1 | _______ | ___________________ | | loss_1 pretrained_model (только предсказать) | | | loss_2 (предсказать результат) | _______________________ | | плюс вместе как потеря mode_1 в
inkzk
1

голосов
0

ответ
1.6k

Просмотры

Почему h5py.h5f.create неудачи с OSError: не удалось открыть файл: имя = «имя»,

Я получаю случайные неудачи, чтобы создать модель весов файл обратного вызова при запуске Keras (с tensorflow) модели в цикле с изменением параметров модели и входных данных. Я имею в виду, что это может быть что-то делать с длиной моего имени каталога, но если это так, то кажется, что ошибка, как это происходит только иногда. До следующей ошибки он написал несколько файлов с одинаковыми каталогами длиной. Я использую длинные имена каталогов, чтобы было проще отличить пробеги в tensorboard. Я покажу свою базовую настройку коды, как псевдо-код, а затем случайную ошибку, что я получаю. Я вложенный цикл, который меняется параметров модели, а также входные данные. Основной цикл будет нормально работать в течение нескольких часов, а затем случайным образом терпят неудачу по той же ошибки в какой-то момент в цикле. Я хотел бы знать, если я делаю что-то неправильно в моем имени файла, который является причиной этого. Я хотел бы также, как работа вокруг так, что, когда он выходит из строя, я могу продолжать работать и двигаться дальше к следующему файлу и пропустить тот, который терпит неудачу. Некоторые типы попробовать / за исключением, но я не знаю достаточно о h5py знать, как код, который не знает. Я бегу на Windows 10 (Конда окр), tensorflow-1.6.0 GPU, Keras 2.1.5, 2.7.1 h5py, tensorboard 1.6.0. Я также настроить Windows 10 для обработки длинных имен файлов. Эта ошибка, как представляется, поступающим непосредственно из h5py (h5py \ h5f.pyx). Кроме того, файл фактически будет создаваться и записываться. Я могу загрузить файл с помощью h5py.File (), и это правильный размер и имеет те же самые группы и объекты. Обновление: Я включал os.makedirs строки () в своем коде, что я не показывал раньше. Я также добавил проверку на создание каталогов и снова побежал код. Он по-прежнему не в таким же образом, и это никогда не вызвало isdir () чек. Update 2: Хотел бы отметить, что я использую мультипроцессирование из-за утечки памяти при использовании Keras с Tensorflow. Это происходит независимо от того, K.clear_session () и tf.reset_default_graph (). Сейчас я считаю, что это случайная ошибка связана с многопроцессорной, как я не наблюдал эту ошибку, когда я еще устранить процесс объединения средств. Защита основные (): для input_data в input_data_list: для model_parameters в model_parameters_list: # запуска модель с различными параметрами на все пул данных = multiprocessing.Pool (1) pool.apply (run_function, run_parameters ..., model_func_name, model_func_dict) pool.close () Защита run_function (run_parameters ..., model_func_name, model_func_dict, ...):
Zak Keirn
1

голосов
1

ответ
186

Просмотры

InvalidArgumentError: Вы должны кормить значение для тензора заполнителя «INPUT_1» с DTYPE поплавок и формой [?, 1339,2560,1]

Я новичок в tensorflow, и я получаю следующее сообщение об ошибке при использовании keras: InvalidArgumentError (смотрите выше TRACEBACK): Вы должны кормить значение для тензора заполнителя «INPUT_1» с DTYPE поплавок и формой [, 1339,2560,1 ], потому что в моей модели: модель = Модель (вход = входы, выход = conv13). Размер входной и выходной размер после обрезки, так что я хочу использовать площадку в NumPy, чтобы компенсировать разницу [, 1339,2560,1?] [, 1328,2560,1?]: Sess = tf.Session () sess.run (tf.initialize_all_variables ()) conv12_ar = conv12.eval (сессия = Sess) conv13_tem = np.pad (conv12_ar, ((0, 0), (5, 6), (0, 0), ( 0, 0)), 'край') conv13 = tf.convert_to_tensor (conv13_tem), и я получаю ошибку выше, кто может мне помочь? или указать другой способ, чтобы компенсировать разницу
fan percy
1

голосов
0

ответ
236

Просмотры

Как я могу улучшить точность CNN-LSTM классификатора в Keras

Я разрабатываю классификатор CNN-LSTM в keras, который принимает в качестве входных последовательностей ДНК длины 500 и пытается классифицировать последовательности как либо в классе 1 или 0. Я приобрел наборы данные и все лучшие тесты из научно-исследовательской работы [https://file.scirp.org/pdf/JBiSE_2016042713533805.pdf] Моя цель состоит в том, чтобы превзойти контрольные показатели, полученные в работе, где они использовали структуру CNN. Моя попытка попробовать сочетание архитектуры CNN-LSTM, чтобы попытаться улучшить эту точность они достигли. Проблема заключается в том, что они всегда получают 2-3% лучшую точность, то эту архитектуру. Является ли моя модель правильно, и она может быть улучшена в любом случае, чтобы получить, что дополнительные лучшие результаты, так по крайней мере, я могу улучшить свою точность. Мой код выглядит следующим образом: # Каждая последовательность считывается и разделена на 3-грамм, а затем один горячий кодируются как в работе. X_train_seqs, Однако я уже добавил много отсева, чтобы удалить некоторые из переобучения. Ниже приводится изображение обучающих кривых как подготовки / проверки. https://imgur.com/a/ipBIy>
D.Bellick
1

голосов
2

ответ
355

Просмотры

Keras-conv1d для серии времени для серии классификации несбалансированного времени

(Оп: 'Conv2D') с входными формами: [?, 1,1,9], [1,9,9,32]. Помощь нужна для: Должен ли я использовать встраивание? Нужна Reshape? Заранее спасибо...
Rayadurai
1

голосов
1

ответ
137

Просмотры

Использование Tokenizer Keras' с Premade индексированный словарь

Я работаю над проблемой NLP. Я скачал Premade веса вложения, чтобы использовать для вложения слоя. Перед вложением слоя мне нужно разметить свой набор данных, который в настоящее время в виде строк предложений. Я хочу, чтобы разметить его, используя те же показатели, как мой Premade вложения слоя. Есть ли способ, чтобы инициализировать Tokenizer Keras (tensorflow.keras.preprocessing.text.Tokenizer) с Premade словаря вида: { 'по': 1, 'я': 2, 'а': 3 .... .}, поэтому он не будет принимать решение о своей собственной, какой индекс, чтобы дать каждое слово?
Fuseques
1

голосов
2

ответ
1k

Просмотры

Binary Cross Энтропия Loss для изображения Сегментация

Я использую CNN (U-Net) в Keras в сегменте 8-битовое изображение, чтобы получить двоичную маску. Несмотря на достижения точности 0,9999 я до сих пор получить несколько значений, которые находятся между 0 и 255, но хотели бы, чтобы полностью удалить эти значения только 0 или 255. Я до сих пор с помощью бинарного кросс функции потерь энтропии, в сочетании с сигмовидной активация функции последнего сверточного слоя. Может кто-нибудь сказать мне, если есть и другие функции потерь, которые могли бы решить эту проблему.
disputator1991
1

голосов
0

ответ
51

Просмотры

Gaussian реализация функции плотности в Keras

Я пытаюсь реализовать функцию плотности гауссово функцию оценщика в keras (Python). Я попытался с помощью следующего подхода, но он не работает Защиту нормальный (г, средний, вар, z_dim): возвращение 1 / (K.pow (2 * np.pi, z_dim / 2) * K.prod (вар, 1 )) * K.exp (- 1/2 * K.sum (K.square (г - среднее) / вар, 1)) Я получаю следующее сообщение об ошибке. Выходные тензоры к модели должны быть Keras тензоров. Найдено: Тензорная ( "mul_2207: 0", форма = (?,), DTYPE = float32)
Pablo Sanchez

Просмотр дополнительных вопросов

Связанные вопросы