加入收藏 | 设为首页 |

anggame安博电竞-飞桨上线全能转化小工具,教你玩转TensorFlow、Caffe等模型搬迁

海外新闻 时间: 浏览:226 次

本文作者:飞桨开发者说成员Charlotte

百度推出飞桨(PaddlePaddle)后,不少开发者开端转向国内的深度学习结构。可是从代码的搬运谈何容易,之前的作业重写一遍不太实践,不计其数行代码的手艺转化等所以在做一次二次开发。

现在,有个好消息:不管Caffe、TensorFlow、ONNX都能够轻松搬迁到飞桨渠道上。尽管现在还不直接搬迁PyTorch模型,但PyTorch本身支撑导出为ONNX模型,等于直接对该渠道供给了支撑。

可是,有人还对存在疑问:不同结构之间的API有没有差异?整个搬迁进程怎么操作,过程杂乱吗?搬迁后怎么确保精度的丢失在可接受的范围内?

咱们会考虑许多问题,而问题再多,概括一下,无外乎以下几点:

X2Paddle(Github见参阅1),能够支撑干流深度学习结构模型转化至飞桨,包含Caffe、Tensorflow、onnx等模型直接转化为Paddle Fluid可加载的猜测模型,而且还供给了这三大干流结构间的API差异比较,便利咱们在自己直接复现模型时比照API之间的差异,深化了解API的完成办法然后下降模型搬迁带来的丢失。

下面以TensorFlow转化成Paddle Fluid模型为例,详细讲讲怎么完成模型的搬迁。

TensorFlow-Fluid 的API差异

在深度学习入门进程中,咱们常见的便是手写数字辨认这个demo,下面是一份最简略的完成手写数字辨认的代码:

fromtensorflow.examples.tutorials.mnist importinput_data

importtensorflow astf

mnist = input_data.read_data_sets( "MNIST_data/", one_hot= True)

x = tf.placeholder(tf.float32, [ None, 784])

W = tf.Variable(tf.zeros([ 784, 10]))

b = tf.Variable(tf.zeros([ 10]))

y = tf.nn.softmax(tf.matmul(x, W) + b)

y_ = tf.placeholder( "float", [ None, 10])

cross_entropy = tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(logits = y,labels = y_))

train_step = tf.train.GradientDescentOptimizer( 0.01).minimize(cross_entropy)

init = tf.global_variables_initializer

sess = tf.Session

sess.run(init)

fori inrange( 1, 1000):

batch_xs, batch_ys = mnist.train.next_batch( 100)

sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))

accuracy = tf.reduce_mean(tf.cast(correct_prediction, 'float'))

print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))

咱们看这段代码里,第一步是导入mnist数据集,然后设置了一个占位符x来表明输入的图片数据,再设置两个变量w和b,别离表明权重和偏置来核算,最终经过softmax核算得到输出的y值,而咱们实在的label则是变量y_ 。

前向传达完成后,就能够核算猜测值y与label y_之间的穿插熵。

再挑选适宜的优化函数,此处为梯度下降,最终发动一个Session,把数据按batch灌进去,核算acc即可得到准确率。

这是一段十分简略的代码,假如咱们想把这段代码变成飞桨的代码,有人可能会以为十分费事,每一个完成的API还要逐个去找对应的完成办法,可是这儿,我能够告知咱们,不!用!这!么!麻!烦!由于在X2Paddle里有一份常用的Tensorflow对应Fluid的API表,(https://github.com/PaddlePaddle/X2Paddle/tree/master/tensorflow2fluid/doc),如下所示:

关于常用的TensorFlow的API,都有相应的飞桨接口,假如两者的功用没有差异,则会标示功用共同,假如完成办法或许支撑的功用、参数等有差异,即会标示“差异比照”,并详细注明。

比如,三九胃泰在上文这份十分简略的代码里,呈现了这些TensorFlow的API:

在呈现的这些api里,大部分的功用都是共同的,只需两个功用不同,别离是tf.placeholder和tf.nn.softmax_cross_entropy_with_logits ,别离对应 fluid.layers.data 和 fluid.layers.softmax_with_cross_entropy . 咱们来看看详细差异:

tf.placeholder V.S fluid.layers.data

常用TensorFlow的同学对placeholder应该不生疏,中文翻译为占位符,什么意思呢?在TensorFlow 2.0曾经,仍是静态图的规划思维,整个规划理念是核算流图,在编写程序时,首要构筑整个体系的graph,代码并不会直接收效,这一点和python的其他数值核算库(如Numpy等)不同,graph为静态的,在实践的运转时,发动一个session,程序才会真实的运转。这样做的优点便是:防止重复地切换底层程序实践运转的上下文,tensorflow帮你优化整个体系的代码。咱们知道,许多python程序的底层为C言语或许其他言语,履行一行脚本,就要切换一次,是有本钱的,tensorflow经过核算流图的办法,能够帮你优化整个session需求履行的代码。

在代码层面,每一个tensor值在graph上都是一个op,当咱们将train数据分红一个个minibatch然后传入网络进行练习时,每一个minibatch都将是一个op,这样的话,一副graph上的op不免太多,也会发生巨大的开支;所以就有了tf.placeholder,咱们每次能够将 一个minibatch传入到x = tf.placeholder(tf.float32,[None,32])上,下一次传入的x都替换掉上一次传入的x,这样就关于一切传入的minibatch x就只会发生一个op,不会发生其他剩余anggame安博电竞-飞桨上线全能转化小工具,教你玩转TensorFlow、Caffe等模型搬迁的op,从而减少了graph的开支。

参数比照

tf.placeholder

tf.placeholder(

dtype,

shape= None,

name= None

)

paddle.fluid.layers.data

paddle.fluid.layers.data(

name,

shape,

append_batch_size= True,

dtype= 'float32',

lod_level= 0,

type=VarType.LOD_TENSOR,

stoanggame安博电竞-飞桨上线全能转化小工具,教你玩转TensorFlow、Caffe等模型搬迁p_gradient= True)

从图中能够看到,飞桨的api参数更多,详细差异如下:

TensorFlow: 关于shape中的batch维度,需求用户运用None指定;

飞桨: 将第1维设置为-1表明batch维度;如若第1维为正数,则会默许在最前面刺进batch维度,如若要防止batch维,可将参数append_batch_size设为False。

tensorflow和pytorch都支撑对输入求梯度,在飞桨中直接设置stop_gradient = False即可。假如在某一层运用stop_gradient=True,那么这一层之前的层都会主anggame安博电竞-飞桨上线全能转化小工具,教你玩转TensorFlow、Caffe等模型搬迁动的stop_gradient=True,梯度不会参加回传,能够对某些不需求参加loss核算的信息设置为stop_gradient=True。关于含有BatchNormalization层的CNN网络,也能够对输入求梯度,如

layers.data(

name= "data",

shape=[ 32, 3, 224, 224],

dtype= "int64",

append_batch_size= False,

stop_gradient= False)

tf.nn.softmax_cross_entropy_with_logits V.S fluid.layers.softmax_with_cross_entropy 参数比照

tf.nn.softmax_cross_entropy_with_logits(

_sentinel= None,

labels= None,

logits= None,

dim= -1,

name= None

)

paddle.fluid.layers.softmax_with_cross_entropy

paddle.fluid.layers.softmax_with_cross_entropy(

logits,

label,

soft_label= False,

ignore_index= -100,

numeric_stable_mode= False,

return_softmax= False

)

功用差异

标签类型

TensorFlow:labels只能运用软标签,其shape为[batch, num_classes],表明样本在各个类别上的概率散布;

飞桨:经过设置soft_label,能够挑选软标签或许硬标签。当运用硬标签时,label的shape为[batch, 1],dtype为int64;当运用软标签时,其shape为[batch, num_classes],dtype为int64。

回来值

TensorFlow:回来batch中各个样本的log loss;

飞桨:当return_softmax为False时,回来batch中各个样本的log loss;当return_softmax为True时,再额定回来logtis的归一化值。

疑问点?

硬标签,即 one-hot label, 每个样本仅可分到一个类别

numeric_stable_mode:这个参数是什么呢?标志位,指明是否运用一个具有更佳数学安稳性的算法。仅在 soft_label 为 False的GPU形式下收效. 若 soft_label 为 True 或许履行场所为CPU, 算法一向具有数学安稳性。留意运用安稳算法时速度可能会变慢。默以为 True。

return_softmax: 指明是否额定回来一个softmax值, 一同回来穿插熵核算成果。默以为False。

假如 return_softmax 为 False, 则回来穿插熵丢失

假如 return_softmax 为 True,则回来元组 (loss, softmax) ,其间穿插熵丢失为形为[N x 1]的二维张量,softmax为[N x K]的二维张量

代码示例

data = fluid.layers.data(name= 'data', shape=[ 128], dtype= 'float32')

label = fluid.layers.data(name= 'label', shape=[ 1], dtype= 'int64')

fc = fluid.layers.fc(input=data, size= 100)

out = fluid.layers.softmax_with_cross_entropy(

logits=fc, label=label)

所以经过API对应表,咱们能够直接转化把TensorFlow代码转化成Paddle Fluid代码。可是假如现在项目现已上线了,代码几千行乃至上万行,或许现已练习出可猜测的模型了,假如想要直接转化API是一件十分耗时耗精力的工作,有没有一种办法能够直接把练习好的可猜测模型直接转化成另一种结构写的,只需转化后的丢失精度在可接受的范围内,就能够直接替换。下面就讲讲练习好的模型怎么搬迁。

模型搬迁

VGG_16是CV范畴的一个经典模型,我以tensorflow/models下的VGG_16为例,给咱们展现怎么将TensorFlow练习好的模型转化为飞桨模型。

importurllib

importsys

defschedule(a, b, c):

per = 100.0* a * b / c

per = int(per)

sys.stderr.write( "rDownload percentage %.2f%%"% per)

sys.stderr.flush

url = "http://download.tensorflow.org/models/vgg_16_2016_08_28.tar.gz"

fetch = urllib.urlretrieve(url, "./vgg_16.tar.gz", schedule)

importtarfile

withtarfile.open( "./vgg_16.tanggame安博电竞-飞桨上线全能转化小工具,教你玩转TensorFlow、Caffe等模型搬迁ar.gz", "r:gz") asf:

file_names = f.getnames

forfile_name infile_names:

f.extract(file_name, "./")

保存模型为checkpoint格局

importtensorflow.contrib.slim asslim

fromtensorflow.contrib.slim.nets importvgg

importtensorflow astf

importnumpy

withtf.Session assess:

inputs = tf.placeholder(dtype=tf.float32, shape=[ None, 224, 224, 3], name= "inputs")

logits, endpoint = vgg.vgg_16(inputs, num_classes= 1000, is_training= False)

load_model = slim.assign_from_checkpoint_fn( "vgg_16.ckpt", slim.get_model_variables( "vgg_16"))

load_model(sess)

numpy.random.seed( 13)

data = numpy.random.rand( 5, 224, 224, 3)

input_tensor = sess.graph.get_tensor_by_name( "inputs:0")

output_tensor = sess.graph.get_tensor_by_name( "vgg_16/fc8/squeezed:0")

result = sess.run([output_tensor], {input_tensor:data})

numpy.save( "tensorflow.npy", numpy.array(result))

saver = tf.train.Saver

saver.save(sess, "./checkpoint/model")

TensorFlow2fluid现在支撑checkpoint格局的模型或许是将网络结构和参数序列化的pb格局模型,上面下载的vgg_16.ckpt只是存储了模型参数,因而咱们需求从头加载参数,并将网络结构和参数一同保存为checkpoint模型

importtf2fluid.convert asconvert

importargparse

parser = convert._get_parser

parser.meta_file = "checkpoint/model.meta"

parser.ckpt_dir = "checkpoint"

parser.in_nodes = [ "inputs"]

parser.input_shape = [ "None,224,224,3"]

parser.output_nodes = [ "vgg_16/fc8/squeezed"]

parser.use_cuda = "True"

parser.input_format = "NHWC"

parser.save_dir = "paddle_model"

convert.run(parser)

留意:部分OP在转化时,需求将参数写入文件;或许是运转tensorflow模型进行infer,获取tensor值。两种状况下均会耗费必定的时刻用于IO或核算,关于后一种状况,

打印输出log信息(截取部分)

INFO:root:Loading tensorflow model...

INFO:tensorflow:Restoring parameters fromcheckpoint/model

INFO:tensorflow:Restoring parameters fromcheckpoint/model

INFO:root:Tensorflow model loaded!

INFO:root:TotalNum: 86,TraslatedNum: 1,CurrentNode:inputs

INFO:root:TotalNum: 86,TraslatedNum: 2,CurrentNode:vgg_16/conv1/conv1_1/weights

INFO:root:TotalNum: 86,TraslatedNum: 3,CurrentNode:vgg_16/conv1/conv1_1/biases

INFO:root:TotalNum: 86,TraslatedNum: 4,CurrentNode:vgg_16/conv1/conv1_2/weights

INFO:root:TotalNum: 86,TraslatedNum: 5,CurrentNode:vgg_16/conv1/conv1_2/biases

...

INFO:root:TotalNum: 86,TraslatedNum: 10,CurrentNode:vgg_16/conv3/conv3_1/weights

INFO:root:TotalNum: 86,TraslatedNum: 11,CurrentNode:vgg_16/conv3/conv3_1/biases

INFO:root:TotalNum: 86,TraslatedNum: 12,CurrentNode:vgg_16/conv3/conv3_2/weights

INFO:root:TotalNum: 86,TraslatedNum: 13,CurrentNode:vgg_16/conv3/conv3_2/biases

INFO:root:TotalNum: 86,TraslatedNum: 85,CurrentNode:vgg_16/fc8/BiasAdd

INFO:root:TotalNum: 86,TraslatedNum: 86,CurrentNode:vgg_16/fc8/squeezed

INFO:root:Model translated!

到这一步,咱们现已把tensorflow/models下的vgg16模型转化成了Paddle Fluid 模型,转化后的模型与原模型的精度有丢失吗?怎么猜测呢?来看下面。

猜测成果差异

上一步转化后的模型目录命名为“paddle_model”,在这儿咱们经过ml.ModelLoader把模型加载进来,留意转化后的飞桨模型的输出格局由NHWC转化为NCHW,所以咱们需求对输入数据做一个转置。处理好数据后,即可经过model.inference来进行猜测了。详细代码如下:

importnumpy

importtf2fluid.model_loader asml

model = ml.ModelLoader( "paddle_model", use_cuda= False)

numpy.random.seed( 13)

data = numpy.random.rand( 5, 224, 224, 3).astype( "float32")

# NHWC -> NCHW

data = numpy.transpose(data, ( 0, 3, 1, 2))

results = model.inference(feed_dict={model.inputs[ 0]:data})

numpy.save( "paddle.npy", numpy.array(results))

比照模型丢失

转化模型有一个问题一直防止不了,便是丢失,从Tesorflow的模型转化为Paddle Fluid模型,假如模型的精度丢失过大,那么转化模型实践上是没有意义的,只需丢失的精度在咱们可接受的范围内,模型转化才干被实践使用。在这儿能够经过把两个模型文件加载进来后,经过numpy.fabs来求两个模型成果的差异。

importnumpy

paddle_result = numpy.load( "paddle.npy")

tensorflow_result = numpy.load( "tensorflow.npy")

diff = numpy.fabs(paddle_result - tensorflow_result)

print(numpy.max(diff))

打印输出

6.67572e-06

从成果中能够看到,两个模型文件的差异很小,为6.67572e-06 ,简直能够忽略不计,所以这次转化的模型是能够直接使用的。

X2Paddle供给了一个十分便利的转化办法,让咱们能够直接将练习好的模型转化成Paddle Fluid版别。

转化模型原先需求直接经过API对照表来从头完成代码。可是在实践出产进程中这么操作是很费事的,乃至还要进行二次开发。

尽管飞桨比较其他AI渠道上线较晚,可是凭仗X2Paddle小工具,能快速将AI开发者吸引到自己的渠道上来,后续的优势将更加显着。

除了本文说到的tensoflow2fluid,Paddle Fluid还支撑caffe2fluid、onnx2fluid,咱们能够依据本身的需求体会一下,有问题能够留言沟通~

ps:最终给咱们引荐一个GPU福利 - Tesla V100免费算力!合作PaddleHub能让模型原地起飞~ 扫码下方二维码请求~