将tf.keras.layers与Tensorflow低层API相结合

将tf.keras.layers与Tensorflow低层API相结合,tensorflow,keras,keras-layer,Tensorflow,Keras,Keras Layer,我可以将tf.keras.layers与低水平tensorflow结合起来吗 代码不正确,但我想这样做:创建占位符,稍后将向其提供数据(在tf.Session()中),并将该数据提供给我的模型 X, Y = create_placeholders(n_x, n_y) output = create_model('channels_last')(X) cost = compute_cost(output, Y) 是的,这与使用tf.layers.dense()相同。使用tf.keras.la

我可以将tf.keras.layers与低水平tensorflow结合起来吗

代码不正确,但我想这样做:创建占位符,稍后将向其提供数据(在tf.Session()中),并将该数据提供给我的模型

X, Y = create_placeholders(n_x, n_y)

output = create_model('channels_last')(X)

cost = compute_cost(output, Y)

是的,这与使用
tf.layers.dense()
相同。使用
tf.keras.layers.Dense()
实际上是最新tensorflow版本
1.13
中的首选方式(
tf.layers.Dense()
)。比如说


导入tensorflow作为tf
将numpy作为np导入
x_train=np.array([[-1.551,-1.469],[1.022,1.664]],dtype=np.float32)
y_train=np.array([1,0],dtype=int)
x=tf.placeholder(tf.float32,shape=[None,2])
y=tf.placeholder(tf.int32,shape=[None])
使用tf.name_作用域(“网络”):
layer1=tf.keras.layers.Dense(2,输入_形状=(2,))
layer2=tf.keras.layers.Dense(2,输入_形状=(2,))
fc1=第1层(x)
logits=第2层(fc1)
使用tf.name\u范围(“损失”):
xentropy=tf.nn.sparse\u softmax\u cross\u entropy\u with\u logits(labels=y,logits=logits)
损失fn=tf.减少平均值(x熵)
使用tf.name_作用域(“优化器”):
优化器=tf.train.GradientDescentOptimizer(0.01)
列车运行=优化程序。最小化(损失)
使用tf.Session()作为sess:
sess.run(tf.global\u variables\u initializer())
loss_val=sess.run(loss_fn,feed_dict={x:x\u train,y:y\u train})
_=sess.run(train_op,feed_dict={x:x_train,y:y_train})

可能与@Sharky的链接重复,我不认为这是该链接的重复