是否有针对32位Linux的TensorFlow版本?我只看到64位控制盘可用,在网站上没有找到任何关于它的信息。我们只测试了64位Linux和Mac OS X上的TensorFlow发行版,并且只为这些平台分发二进制软件包。尝试按照以下步骤为您的平台构建版本
编辑:一位用户已经发布,这对于其他32位体系结构很有希望。这些指令可能有一些有用的指针,可以让TensorFlow和Bazel在32位环境中工作。谷歌似乎还不支持32位机器上的TensorFlow
在运行Centos 6.5的32位计算机
假设我想在训练期间更新预先训练好的单词嵌入矩阵,有没有办法只更新单词嵌入矩阵的子集
我查看了Tensorflow API页面,发现:
创建一个优化器。
opt=GradientDescentOptimizerlearning_rate=0.1
计算变量列表的梯度。
grads_和_vars=opt.compute_gradientsloss,
grads_和_vars是一个元组列表,梯度变量。你做什么就做什么
需要添加“渐变”部分,例如封盖等。
capped_grads_和_vars=[MyCa
在这方面,它说:
在TensorFlow中,张量既有静态(推断)形状,也有静态形状
动态(真实)形状。可以使用
get_shape()方法:此形状是从
用于创建张量的操作,可以部分
完成如果静态形状未完全定义,则动态形状
张量t的形状可以通过计算tf.shape(t)来确定
但我仍然不能完全理解静态形状和动态形状之间的关系。是否有任何例子表明他们的不同?谢谢。有时张量的形状取决于运行时计算的值。让我们以下面的示例为例,其中x被定义为具有四个元素的向量:
x = tf.placeholder(tf
在阅读时,我注意到作者对输入的RGB图像执行了一些缩放操作,如下所示。我有两个问题:VGG_是什么意思
我的意思是,如何设置?其次,为什么我们需要减去这些平均值来得到bgr
VGG_MEAN = [103.939, 116.779, 123.68]
ef build(self, rgb):
"""
load variable from npy to build the VGG
:param rgb: rgb image [batch, height, width, 3]
我已经按照网站上的指南安装了tensorflow。Tensorflow代码运行完美,我还安装了tflearn。问题是,每当我尝试导入tflearn时,它都会显示ImportError:没有名为“tflearn”的模块
但是tflearn在站点包目录中
我有一个用于运行tensorflow代码的Anaconda安装和Conda环境非常感谢,它成功了。我首先卸载了tflearn,然后激活了tensorflow环境,并简单地进行了pip安装tflearn。然后安装h5py和scipy。它现在工作得很好
我正在训练预测字符的PTB数据集(即字符级LSTM)。
培训批次的维度为[len(数据集)x词汇表大小]。这里,词汇表_size=27(26+1[用于unk标记和空格或句号]
这是将批次输入(arrX)和标签(arrY)转换为一个热的代码。
我在图形中创建输入(X)和标签(Y)的占位符,以将其传递给tflearn LSTM
batch_size = 256
with tf.Graph().as_default():
X = tf.placeholder(shape=(None, voca
我有三个节点来运行分布式tensorflow,这是两个worker(一个有GPU,一个没有)和一个ps(没有GPU)。代码如下:
from __future__ import print_function
import tensorflow as tf
import sys
import time
# cluster specification
parameter_servers = ["192.168.1.102:2222"]
workers = [ "192.168.1.103:2223
当我在Google云实例上运行Hello Tensor flow程序时,我收到以下警告:
I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:910] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
I tensorflow/
上下文
我正在使用Tensorflow 1.0开发多个GPU上的检测器模型。正如所建议的,梯度在多个GPU上单独计算,并在CPU上平均。要在GPU塔架之间共享可训练变量(例如权重和偏差),请使用tf.get_variable_scope().reuse_variables()打开重用标志,如cifar10示例所示。不同之处在于我使用的是AdamOptimizer,而不是GradientDescentOptimizer
问题
当我运行培训作业时,它打印出一个长堆栈跟踪,并在opt.apply_gr
我正在AWS GPU实例上使用bazel构建TensorFlow,CUDA支持。我得到:
error: unknown warning option '-Wno-invalid-partial-specialization'
构建选项:
bazel build --config=opt --config=cuda //tensorflow/tools/pip_package:build_pip_package --verbose_failures
详细错误消息:
ERROR: /home/u
我想通过包含BatchSize维度来初始化权重变量,这在训练和预测阶段是不同的。尝试使用占位符,但似乎不起作用:
batchsize = tf.placeholder(tf.int32, name='batchsize', shape=[])
...
output, state = tf.nn.dynamic_rnn(multicell, X, dtype=tf.float32, initial_state=inState)
weights = tf.Variab
在的api中,我试图设置variation\u recurrent=True,在这种情况下,输入大小是必需的。如上所述,input\u size是包含输入张量的深度的TensorShape对象
深度令人困惑,请问是什么?这只是张量的形状吗?我们可以通过tf.shape()?或者是特殊情况下的图像通道数?但我的输入张量不是图像
我不明白为什么当variation\u returnal=True时需要dtype
谢谢 tf.TensorShape([200,None,300])的输入大小仅为300
我有一台ps任务服务器和两台工作任务服务器的分布式设置。每个都在CPU上运行。我已经异步运行了下面的示例,但它不能同步工作。我不确定我是否对代码做了任何错误:
import math
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
# Flags for defining the tf.train.ClusterSpec
tf.app.flags.DEFINE_string("
在gpu上训练tensorflow convnet模型时,gpu利用率在大约0.5秒内保持在0到100%的脉动
这是理想的效果吗?或者我的模型有问题。
我需要充分利用gpu的力量,因为我的大模型和大图像。
请帮忙
注意:-我将TfRecorddataset用于输入管道。
下面是制作输入管道的代码-
def _parse_function(example_proto):
features = {"image": tf.FixedLenFeature((), tf.string, default
我想训练一个泊松回归来和Tensorflow中的线性回归进行比较。然而,我只找到了。
有人能提供一些见解来帮助我吗?谢谢 那些日子里,我发现一个功能可能会有所帮助:
loss = tf.nn.log_poisson_loss(targets=batch_labels, log_input=logits)
安装方法:
我正在使用Python的Anaconda发行版,而不是在我的计算机上安装多个版本的Python。我在TensorFlow和Anaconda下使用了说明
使用以下命令:
C:> conda create -n tensorflow python=3.6
C:> activate tensorflow
(tensorflow)C:> pip install --ignore-installed --upgrade tensorflow
错误:
在tensorfl
在谷歌的花卉教程中:
对于数据预处理,我们使用了推拉命令:
python trainer/preprocess.py \
--input_dict "$DICT_FILE" \
--input_path "gs://cloud-ml-data/img/flower_photos/train_set.csv" \
--output_path "${GCS_PATH}/preproc/train" \
--cloud
我知道我们可以用自己的列表替换csv文件,从而使用不同的图像集进行训练,但是为1
我在github上发现了一个有趣的项目,可以实时识别人脸:
该项目分为两部分,人脸检测和人脸识别。这两个图存储在一个全局图中,我想导出这个全局图
我在mtcnn_detect.py中添加了该代码:
def __init__(self, face_rec_graph, model_path = "models", threshold = [0.6, 0.7, 0.7], factor = 0.709, scale_factor = 1):
'''
:param face_
我正在查看评估tensorflow模型的tensorflow模型分析文档。《入门指南》介绍了一种称为EvalSavedModel的特殊保存模型
引用《入门指南》:
此EvalSavedModel包含允许TFMA的附加信息
计算模型中定义的相同的评估指标
以分布式方式覆盖大量数据,并由用户定义
切片
我的问题是如何将现有的保存的\u model.pb转换为EvalSavedModel EvalSavedModel作为SavedModel消息导出,因此不需要进行这种转换
EvalSavedModel
我一直在尝试实现空间金字塔池(),但输入大小有问题
我的输入具有形状(批次大小、无、n特征映射),我有以下代码:
self.y_conv_unstacked = tf.unstack(self.conv_output, axis=0)
self.y_maxpool = []
for tensor in self.y_conv_unstacked:
for size_pool in self.out_pool_size:
self.w_str
当使用Tensorflow急切执行时,我在keras中使用kernel\u constraint=maxnorm(3)时遇到问题。如果不在急切执行之外使用标准的Sequential方法,这种方法可以很好地工作,但是这里似乎出现了错误(这似乎是因为乘法步骤*=,我不知道在这种情况下是否有替代方法)
问题:是否有办法将最大$L^2$norm功能合并到Earge Tensorflow执行框架中?下面是更多的细节
下面是我如何激活tensorflow的方法
来自未来导入绝对导入、分割、打印功能
导入te
我注意到一些较新的TensorFlow版本与较旧的CUDA和cuDNN版本不兼容。是否有兼容版本的概述,甚至是官方测试的组合列表?我在TensorFlow文档中找不到它 TL;DR)见下表:
一般来说:
检查CUDA版本:
cat /usr/local/cuda/version.txt
和cuDNN版本:
grep CUDNN_MAJOR -A 2 /usr/local/cuda/include/cudnn.h
并安装一个组合,如下图或中所示
以下图片和链接概述了Linux、macOS和Wi
我在用这个
我刚刚使用了另一个相同格式的列车数据。
代码没有问题,因为当我使用原始的train_数据运行时,代码没有问题。这是什么原因造成的
Traceback (most recent call last):
File "main.py", line 83, in <module>
model.train(train=train_data, dev=dev_data)
File "/home/mengyuguang/NER/model.py", line 161,
我有一个可以拍摄热像和RGB图像的相机,为了检测某些动物,我需要一个能同时观察RGB和热像的分类器。可以为tensorflow分类器使用多个图像层/通道吗?可以创建具有多个层的分类器,但这里的主要问题是,您的分类器必须学会检测热像和RGB图像中的动物,这对于任何分类器来说都是一个艰巨的任务,因为RGB和热像以非常不同的方式表示
您的问题似乎是一个可以使用的标准区域。我建议您创建两个分类器,一个只对RBG图像进行训练,另一个只对热图像进行训练,其结果可以组合为单一输出(在您的案例中,是已识别的动物
我目前能够使用Q-Learning来训练系统。我将把它转移到演员/评论家(A2C)方法。请不要问我为什么要搬家,我必须这么做
我目前正在借用
问题是,我的成功率一直在50%左右(基本上是随机行为)。我的游戏是一个长插曲(50步)。我应该打印奖励、价值还是什么?我应该如何调试它
以下是一些日志:
simulation episode 2: Success, turn_count =20
loss = tensor(1763.7875)
simulation episode 3: Fail, t
tensorflow 1.9.0中的Keras模型是否可以使用tf.contrib.data.make_csv_dataset()?是的,tf.contrib.data.make_csv_dataset()返回tf.data.dataset,您可以将tf.data.dataset传递给Keras模型的fit方法。
请参见此处的一些示例:
这篇文章与这个问题有关。以上代码取自公认的答案
程序本身可以正常工作,但是如果我只更改从
df = pd.DataFrame({'Temperature': [183, 10.7, 24.3, 10.7],
'Weight': [8, 11.2, 14, 11.2],
'Size': [3.97, 7.88, 11, 7.88],
'Property': [0,1,2,0]})
到
嗨,我想画出评估损失,如培训损失,如下所示:
,不只是一个点状的tensorflow教程,我是如何做到这一点的,这是我的代码,通过这段代码,我只得到一个点作为评估损失:
accuracy=tf.metrics.accuracy(labels=labels, predictions=predictions["classes"])
metrics = {"accuracy": accuracy}
tf.summary.scalar("accuracy", accuracy[1])
最近,我试图在google colab中的自定义数据集上训练tensorflow模型api的ssd mobilenet对象检测模型,步骤1之后,培训课程停止,没有显示或抛出任何异常或消息。我无法找出问题所在。有人可以解释一下吗?我认为可能是由于内存有限。您可以尝试:-
请参见训练数据样本的大小(调整大小为较小的尺寸)
在配置文件中:-
减少批量大小
禁用数据扩充
将以下参数设置为低
例如:-
train_config: {
batch_size: 1
...
batch_
通过为TensorFlow模型提供服务时,我需要向客户端公开自定义元数据(例如,模型的输入数据要求、培训信息…)
在保存模型之前,我尝试通过tf.add_to_collection(,)添加信息,果然,信息显示在服务器使用的.pb(txt)文件中
但是,目前看来,对查询元数据的响应(例如,通过GEThttp://localhost:8501/v1/models//metadata)只返回签名定义部分的内容(也不能扩展,验证器会阻止扩展),我不知道如何查询其他部分的内容
有没有办法为TF服务提供/
使用tf.extract\u image\u patches和padding“SAME”将导致一些补丁包含padding(这很好)
有没有一种简单的方法可以得到一个TensorFlow布尔掩码,它可以屏蔽所有包含填充的补丁?或者我需要重新实现填充过程吗?我当前的解决方案是添加一个表示位标志的附加通道。
提取图像补丁后,对于填充通道,位标志为0,对于非填充通道,位标志为1
完整解决方案:
input_tensor = tf.random.normal([10, 28, 28, 1])
window
为什么我将“预测=模型(输入评估)”更改为“预测=模型。预测(输入评估)”,它出现了一个错误:
取消错误:[Op:StatefulPartitionedCall]
这里是代码
def generate_text(model, start_string):
# Evaluation step (generating text using the learned model)
# Number of characters to generate
num_generate = 1000
我正在使用Tensorflow进行对象检测。我有7-8节课。最初,我们有一个图像分类模型,现在将其移动到目标检测模型。仅一次类,要检测的对象就占据了整个图像。我们是否可以将边框尺寸设置为图像的整个宽度和高度?这会妨碍演出吗 只要训练集中有足够多这样的例子,就不应该妨碍表演。
OD API剪辑图像外部的检测,因此在这些情况下,生成的边界框将是整个图像的边界框,或者一个轴将是整个大小,另一个更小,具体取决于对象的占用情况。
假设您的OD模型使用锚定,请确保您有负责此类情况的锚定,即整个图像的比例为。
如果是,那么,他们是如何做到的?我的意思是,假设我有一个通过子类化定制的模型。我的优化器是一个分离的对象。一个命令如何保存两个不同对象的权重?特别是,它如何知道这两个对象是相关的?这是因为model.compile的魔力吗
编辑:我刚刚意识到模型有一个属性model.optimizer,Keras就是这样做的吗?使优化器成为模型的属性并将与之一起保存?否,模型。保存权重()仅保存模型的参数。编译模型时使用的内容(优化器、回调、损失、度量)的状态将不会保存
您应该使用model.save()保存模
我正在尝试使用Keras中的seq2seq架构构建一个文本摘要模型。我遵循了本教程,并用Embeddings层实现了它,效果很好。但现在我想用伯特。在这样的任务中是否可以使用预训练的BERT嵌入,通常我看到的是文本分类,而不是与BERT一起使用的编码器-解码器体系结构
我从tfhub访问BERT模型,并在本教程中实现了一个层类,我还使用BERT标记器进行相应的标记,下面是我的模型
enc\u in\u id=Input(shape=(无),name=“编码器输入id”)
enc_in_mask=
我有一个由3个致密层组成的简单模型。在每个层中,我想设置要从列表中选择的隐藏节点数。因此,对于密集层1,我有:[16,32,64];对于密集层2和密集层3我有[32,64,128]
现在,由于权重初始化在模型训练中起到了不同的作用,我发现在相同的模型配置下,每次训练运行(30个历次)后,我可能会达到精度,有时为0.6,有时为0.7,有时为0.725。我的第一个问题是我的数据集很小
因此,如果我的代码和同一个模型配置的替代运行之间的结果差异很大,我如何在模型配置之间进行选择
换句话说,如果我们假设
我目前正在创建一个机器学习模型,最终目标是在iOS应用程序中部署该模型。该应用程序将用于现场,与测试和培训集相比,现场的光照条件变化很大
在我的图像数据生成器中添加一个高通道移位范围是否会提高我的模型识别图像的能力,即使在光线条件变化很大的情况下也是如此
我目前正在使用
train_datagen = ImageDataGenerator(
rotation_range=360,
width_shift_range=0.2,
height_shif
我正在尝试将zca_白化与keras图像处理选项结合使用,但是计算会被卡住,而且永远不会结束。导致问题的代码部分如下所示:
train_datagen = ImageDataGenerator(rotation_range=30, zca_whitening=True)
def read_pil_image(img_path, height, width):
with open(img_path, 'rb') as f:
return np.array(
我正在用张量流研究一维卷积
代码:
错误消息:
InvalidArgumentError回溯最近的调用
最后的
/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/framework/ops.py
在创建操作图、节点定义、输入、控制输入1606中
尝试:
->1607 c_op=c_api.TF_FinishShoperation p_desc 1608,错误除外。无效参数错误为e:
InvalidArgumentError
作为数据科学和机器学习的新手,我想就下面解释的问题提出以下问题:
机器学习对解决这样的问题有好处吗?还是说它太过分了
这个问题是否与另一个已经发表论文的经典问题有关,以便我选择正确的解决方案
问题:
我一直在研究一个非常有趣的问题,我相信很多分析系统都是通过自动化流程解决的
我们正在收集各种浏览器和自定义构建web应用程序中发生的许多JavaScript错误消息。我们的目标是对相似的消息进行分组,并根据分组消息具有的公共模式对每个组进行标记
例如:
+--------------------
我的音乐创作项目使用了一个模型。模型创建如下
self.model.add(LSTM(self.hidden_size, input_shape=(self.input_length,self.notes_classes),return_sequences=True,recurrent_dropout=dropout) ,)
self.model.add(LSTM(self.hidden_size,recurrent_dropout=dropout,return_
我是深度学习新手,我正在从事一个与足球运动分析相关的爱好项目。我想使用足球视频并将其转换为2D地图。我已经把这个过程分解为几个小步骤。第一步是能够检测球员和足球
我想从一个预先训练好的物体检测模型开始。我拍摄了一段视频,并从中生成了图像。我在其中一张图片上使用了它,并附上了输出。很明显,它对很多事情都不感兴趣。解决这个问题的一个方法是做一些迁移学习。为此,我必须生成自己的数据集。我能想到的唯一方法是将这张图片分割到窗口中,并手动将它们标记为球员和足球
这似乎是一项乏味的任务。是否有其他有效的方法
要实现简单的LSTM模型并在其中运行数据集(无需培训),我可以执行以下操作:
lstm_model = tf.keras.models.Sequential()
lstm_model.add(tf.keras.layers.LSTM(units=16, return_sequences=False, input_shape=X_train.shape[-2:]))
print(lstm_model.predict(X_train))
这将产生与以下相同的结果:
lstm_model = tf
我正在为预测塞纳里奥建立一个LSTM模型。我的数据集有大约248000条数据,我使用24000条(约10%)作为验证集,其他数据集是训练集。我的模型学习曲线如下所示:
从零开始,验证误差始终为0.00002,在第20个历元时,训练误差降至0.013533
我仔细阅读了以下内容:
我的验证集是否不具有代表性?解决方案是使用更大的验证集吗?可能是,首先,您的基本概念非常简单,导致早期极低的验证错误。其次,数据的增加使学习变得更加困难,这会产生更高的训练错误
不过,我还是会对你的情况做一些实验。首先
运行model.fit函数时,会抛出一个错误。主要问题是,这个错误意味着什么?该代码在TPU V3-8上运行,并使用谷歌云进行数据检索。我确实试着在网上查找错误,但是我找不到任何其他人出现此错误的案例
model.fit(
dataset,
steps_per_epoch = N_IMGS // BATCH_SIZE,
epochs = EPOCHS,
)
抛出错误
InvalidArgumentError: {{function_node __inference_tr
我试图在以下存储库中重现掩码RCNN的训练:
列车的代码段如下所示:
# Training - Stage 1
print("Training network heads")
model.train(dataset_train, dataset_val,
learning_rate=config.LEARNING_RATE,
epochs=40,
layers='heads')
我正在尝试构建一个用于语言翻译(英语到法语)的序列到序列编码器-解码器网络,我使用三个BLSTM层和一个LSTM解码器作为编码器和一个dropout
对于模型和拟合是可以的,但是我在推理模型中不断得到一个错误
错误显示:
ValueError: Layer lstm_3 expects 35 inputs, but it received 3 input tensors. Inputs received: [<tf.Tensor 'embedding_1/embedding_lookup_
行“tflite\u model=converter.convert()”给出了AttributeError:'str'对象没有属性'call'
请参见代码截图->
代码:
错误:
AttributeError:“str”对象没有属性“call”
错误指向第4行:“tflite\u model=converter.convert()
如果您在TensorFlow 2.0或更高版本中使用TFLiteConverterAPI,则TFLiteConverter.from_keras_model会接收k
我正在使用Keras跟踪政策梯度,
我不太明白下面的意思
在下面的例子中,不同形状的输入张量到底是如何输入到模型的?
图层既不是.concated,也不是.Added
input1.shape=(4,4)
input2.shape=(4,)
“输入”层有4个神经元,接受input1+input2作为4d向量
代码摘录(经过修改使其更简单):
在您可能想要确定刚刚构建的图形类型的情况下,使用model.summary()或tf.keras.utils.plot\u model()方法进行调试非
我使用的是预训练模型,如下所示:
base_model = keras.applications.Xception(
weights='imagenet',
input_shape=(150,150,3),
include_top=False
)
然后冻结所有层:
base_model.trainable = False
现在,我只想解冻,比如说最底层。
当我做base\u model.summary()时,底部就是这样:
那么,假设我想解冻block14\u se
1 2 3 4 5 6 ...
下一页 最后一页 共 215 页