1. 参数列表
2. 作用
- 可以把任意的一个表达式作为一个“Layer”对象
- Lambda层之所以存在是因为它可以在构建Squential时使用任意的函数或者说tensorflow 函数。
- 在我们需要完成一些简单的操作(例如VAE中的重采样)的情况下,Lambda层再适合不过了。
3. 举个栗子(VAE)
- 可以看到通过在encoder和decoder中间加入一个Lambda层使得encoder和decoder连接起来,很方便
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 | def sampling(agrs): mean,logvar = agrs[0],agrs[1] eps = tf.random.normal(tf.shape(mean)) return mean + eps*tf.exp(logvar * 0.5) # 编码阶段 x = layers.Input(shape=(784,)) # 输入层 h1 = layers.Dense(200,activation='softplus')(x) h2 = layers.Dense(200,activation='softplus')(h1) # 均值和方差层不需要激活函数 mean = layers.Dense(latent_dimension)(h2) log_var = layers.Dense(latent_dimension)(h2) # 将采样过程看成一个Lambda层,这里利用自定义的sampling函数 z = layers.Lambda(sampling,output_shape=(latent_dimension,))([mean,log_var]) # 解码阶段 h3 = layers.Dense(200,activation='softplus') h4 = layers.Dense(200,activation='softplus') h5 = layers.Dense(200,activation='softplus') # No activation end = layers.Dense(784) z1 = h3(z) z2 = h4(z1) z3 = h5(z2) out = end(z3) # 建立模型 model = tf.keras.Model(x,out) |
4. Lambda层的缺点
- Lambda层虽然很好用,但是它不能去更新我们模型的配置信息,就是不能重写’model.get_config()'方法
- 所以tensorflow提议,尽量使用自定义层(即tf.keras.layers的子类)
- 关于自定义层,我的博客有一期会专门讲
总结
当网络需要完成一些简单的操作时,可以考虑使用Lambda层。