BigQuant使用文档

深度学习

由polll创建,最终由polll 被浏览 1497 用户

{{use_style}}

深度学习

模型

构建(深度学习)

构造一个拥有输入和输出的模型。我们使用Model来初始化构造一个函数式模型。

表名:dl_model_init.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输出 outputs 通用 输出 None
输出端 模型 data 通用 模型

预测(深度学习)

深度学习模型预测。

表名:dl_model_predict.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 模型 trained_model 通用 模型 *必填
数据 input_data 通用 数据,pickle格式dict,包含x *必填
输入参数 batch_size batch_size int batch_size,进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。 32
gpu个数 n_gpus int gpu个数,本模块使用的gpu个数 0
日志输出 verbose choice 日志输出 2:每个epoch输出一行记录
输出端 预测结果 data 通用 预测结果

训练(深度学习)

深度学习模型模型编译和训练。

表名:dl_model_train.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 模型结构 input_model 通用 模型结构 *必填
训练数据 training_data 通用 训练数据,pickle格式dict,包含x和y *必填
验证数据 validation_data 通用 验证数据,pickle格式dict,包含x和y None
输入参数 优化器 optimizer choice 优化器,optimizer,优化器使用的是使用默认参数,如果需要修改参数,可以使用自定义优化器 SGD
自定义优化器 user_optimizer code 自定义优化器,示例: from tensorflow.keras import optimizers bigquant_run=optimizers.SGD(lr=0.01, clipvalue=0.5) [默认代码](javascript:void(0);)
目标函数 loss choice 目标函数,loss,目标函数/损失函数 mean_squared_error
自定义目标函数 user_loss code 自定义目标函数,示例: from tensorflow.keras import losses bigquant_run=losses.mean_squared_error [默认代码](javascript:void(0);)
评估指标 metrics str 评估指标,包含评估模型在训练和测试时的性能的指标,多个指标用英文逗号(,)分隔。示例:mse,accuracy None
batch_size batch_size int batch_size,进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。 32
epochs epochs int epochs,训练终止时的epoch值,训练将在达到该epoch值时停止,当没有设置initial_epoch时,它就是训练的总轮数,否则训练的总轮数为epochs - inital_epoch 1
gpu个数 n_gpus int gpu个数,本模块使用的gpu个数 0
日志输出 verbose choice 日志输出 2:每个epoch输出一行记录
输出端 训练后的模型 data 通用 训练后的模型

包装器

Bidirectional层

双向RNN包装器

表名:dl_layer_bidirectional.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入层 layer 通用 输入层 *必填
输入 inputs 通用 输入 None
输入参数 merge_mode merge_mode choice merge_mode,Mode by which outputs of the forward and backward RNNs will be combined. 前向和后向RNN输出的结合方式,为sum,mul,concat,ave和None之一,若设为None,则返回值不结合,而是以列表的形式返回 None
weights weights str weights,列表,列表用英文逗号(,)分隔,例如 1,2 None
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

TimeDistributed层

该包装器可以把一个层应用到输入的每一个时间步上。

表名:dl_layer_timedistributed.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入层 layer 通用 输入层 *必填
输入 inputs 通用 输入 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

卷积层

Conv1D层

一维卷积层(即时域卷积),用以在一维输入信号上进行邻域滤波。当使用该层作为首层时,需要提供关键字参数input_shape。例如(10,128)代表一个长为10的序列,序列中每个信号为128向量。而(None, 128)代表变长的128维向量序列。

该层生成将输入信号与卷积核按照单一的空域(或时域)方向进行卷积。如果use_bias=True,则还会加上一个偏置项,若activation不为None,则输出为经过激活函数的输出。

表名:dl_layer_conv1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
步长 strides str 步长,strides,卷积的步长。整数列表,列表用英文逗号(,)分隔,例如 12,34 1
padding padding choice padding,补0策略,为“valid”, “same” 或“causal”,“causal”将产生因果(膨胀的)卷积,即output[t]不依赖于input[t+1:]。当对不能违反时间顺序的时序信号建模时有用。参考WaveNet: A Generative Model for Raw Audio, section 2.1.。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 valid
dilation_rate dilation_rate int dilation_rate,整数,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 1
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 None
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 Zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Conv2D层

二维卷积层,即对图像的空域卷积。该层对二维输入进行滑动窗卷积,当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (128,128,3)代表128*128的彩色RGB图像(data_format='channels_last')

表名:dl_layer_conv2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
步长 strides str 步长,strides,卷积的步长。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 1,1
padding padding choice padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
dilation_rate dilation_rate str dilation_rate,整数或由2个整数构成的list/tuple,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 1,1
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 None
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 Zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Conv2DTranspose层

该层是转置的卷积操作(反卷积)。需要反卷积的情况通常发生在用户想要对一个普通卷积的结果做反方向的变换。例如,将具有该卷积层输出shape的tensor转换为具有该卷积层输入shape的tensor。同时保留与卷积层兼容的连接模式。

当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (3,128,128)代表128*128的彩色RGB图像

表名:dl_layer_conv2dtranspose.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
卷积的步长 strides str 卷积的步长,strides,单个整数或由两个整数构成的list/tuple,为卷积的步长。如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rate均不兼容。用英文逗号(,)分隔的整数列表,例如 10,20 1,1
padding padding choice padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
dilation_rate dilation_rate str dilation_rate,整数或由2个整数构成的list/tuple,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 1,1
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 None
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Conv3D层

三维卷积对三维的输入进行滑动窗卷积,当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (3,10,128,128)代表对10帧128*128的彩色RGB图像进行卷积。数据的通道位置仍然有data_format参数指定。

表名:dl_layer_conv3d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
卷积的步长 strides str 卷积的步长,strides,单个整数或由3个整数构成的list/tuple,为卷积的步长。如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rate均不兼容 1,1,1
padding padding choice padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
dilation_rate dilation_rate str dilation_rate,单个整数或由3个个整数构成的list/tuple,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 1,1,1
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 None
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Cropping1D层

在时间轴(axis1)上对1D输入(即时间序列)进行裁剪

表名:dl_layer_cropping1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 cropping cropping str cropping,长为2的tuple,指定在序列的首尾要裁剪掉多少个元素,用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 1,1
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Cropping2D层

对2D输入(图像)进行裁剪,将在空域维度,即宽和高的方向上裁剪 (e.g. picture).

表名:dl_layer_cropping2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 cropping cropping str cropping,长为4的列表,2个一组,分别为宽和高方向上头部与尾部需要裁剪掉的元素数。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 0,0,0,0
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Cropping3D层

对3D输入(图像)进行裁剪 (e.g. spatial or spatio-temporal).

表名:dl_layer_cropping3d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 cropping cropping str cropping,长为6的列表,2个一组,分别为三个方向上头部与尾部需要裁剪掉的元素数。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 1,1,1,1,1,1
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

SeparableConv2D层

该层是在深度方向上的可分离卷积。可分离卷积首先按深度方向进行卷积(对每个输入通道分别卷积),然后逐点进行卷积,将上一步的卷积结果混合到输出通道中。参数depth_multiplier控制了在depthwise卷积(第一步)的过程中,每个输入通道信号产生多少个输出通道。直观来说,可分离卷积可以看做讲一个卷积核分解为两个小的卷积核,或看作Inception模块的一种极端情况。当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (3,128,128)代表128*128的彩色RGB图像。

表名:dl_layer_separableconv2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
卷积的步长 strides str 卷积的步长,strides,如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rate均不兼容。用英文逗号(,)分隔的整数列表 1,1
padding padding choice padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
depth_multiplier depth_multiplier str depth_multiplier,The number of depthwise convolution output channels for each input channel. The total number of depthwise convolution output channels will be equal to filterss_in * depth_multiplier . 1
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 None
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
depthwise_initializer depthwise_initializer choice depthwise_initializer,Initializer for the depthwise kernel matrix,使用的是使用默认参数 glorot_uniform
自定义depthwise_initializer user_depthwise_initializer code 自定义depthwise_initializer,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
pointwise_initializer pointwise_initializer choice pointwise_initializer,Initializer for the pointwise kernel matrix,使用的是使用默认参数 glorot_uniform
自定义pointwise_initializer user_pointwise_initializer code 自定义pointwise_initializer,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
depthwise_regularizer depthwise_regularizer choice depthwise_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
depthwise_regularizer L1 depthwise_regularizer_l1 float depthwise_regularizer L1,如果使用L1L2正则化,此参数有效 0
depthwise_regularizer L2 depthwise_regularizer_l2 float depthwise_regularizer L2,如果使用L1L2正则化,此参数有效 0
自定义depthwise_regularizer user_depthwise_regularizer code 自定义depthwise_regularizer,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
pointwise_regularizer pointwise_regularizer choice pointwise_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
pointwise_regularizer L1 pointwise_regularizer_l1 float pointwise_regularizer L1,如果使用L1L2正则化,此参数有效 0
pointwise_regularizer L2 pointwise_regularizer_l2 float pointwise_regularizer L2,如果使用L1L2正则化,此参数有效 0
自定义pointwise_regularizer user_pointwise_regularizer code 自定义pointwise_regularizer,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
depthwise_constraint depthwise_constraint choice depthwise_constraint,在优化过程中为网络的参数施加约束 None
自定义depthwise_constraint user_depthwise_constraint code 自定义depthwise_constraint,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
pointwise_constraint pointwise_constraint choice pointwise_constraint,在优化过程中为网络的参数施加约束 None
自定义pointwise_constraint user_pointwise_constraint code 自定义pointwise_constraint,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

UpSampling1D层

Upsampling layer for 1D inputs。在时间轴上,将每个时间步重复length次。输入形如(samples,steps,features)的3D张量,输出形如(samples,upsampled_steps,features)的3D张量。

表名:dl_layer_upsampling1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 上采样因子 size int 上采样因子,size 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

UpSampling2D层

Upsampling layer for 2D inputs. 将数据的行和列分别重复size[0]和size[1]次。输入和输出均为4D张量。

表名:dl_layer_upsampling2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 size size str size,长为2的列表,分别为行和列上采样因子。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 2,2
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

UpSampling3D层

Upsampling layer for 3D inputs. 将数据的三个维度上分别重复size[0]、size[1]和ize[2]次。输入和输出均为5D张量。

表名:dl_layer_upsampling3d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 size size str size,长为3的列表,分别为行和列上采样因子。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 2,2,2
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

ZeroPadding1D层

对1D输入的首尾端(如时域序列)填充0,以控制卷积以后向量的长度。

表名:dl_layer_zeropadding1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 padding padding int padding,表示在要填充的轴的起始和结束处填充0的数目,这里要填充的轴是轴1(第1维,第0维是样本数) 1
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

ZeroPadding2D层

对2D输入(如图片)的边界填充0,以控制卷积以后特征图的大小。

表名:dl_layer_zeropadding2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 padding padding str padding,表示在要填充的轴的起始和结束处填充0的数目,这里要填充的轴是轴3和轴4(即在'th'模式下图像的行和列,在‘channels_last’模式下要填充的则是轴2,3)。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 2,2
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

ZeroPadding3D层

将数据的三个维度上填充0。

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 padding padding str padding,长为3的整数列表,列表用英文逗号(,)分隔的整数列表,例如 32,24。表示在要填充的轴的起始和结束处填充0的数目,这里要填充的轴是轴3,轴4和轴5,‘channels_last’模式下则是轴2,3和4 1,1,1
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

噪声层

AlphaDropout层

对输入施加Alpha Dropout。Alpha Dropout是一种保持输入均值和方差不变的Dropout,该层的作用是即使在dropout时也保持数据的自规范性。 通过随机对负的饱和值进行激活,Alphe Drpout与selu激活函数配合较好。

表名:dl_layer_alphadropout.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 dropout率 rate float dropout率,断连概率,与Dropout层相同 *必填
noise_shape noise_shape str noise_shape,noise_shape。整数列表,列表用英文逗号(,)分隔,例如 12,34 None
随机数种子 seed int 随机数种子,整数 None
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GaussianDropout层

为层的输入施加以1为均值,标准差为sqrt(rate/(1-rate)的乘性高斯噪声

因为这是一个起正则化作用的层,该层只在训练时才有效。

表名:dl_layer_gaussiandropout.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 rate rate float rate,drop probability (as with Dropout ). The multiplicative noise will have standard deviation sqrt(rate / (1 - rate)). 断连概率,与Dropout层相同 *必填
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GaussianNoise层

为数据施加0均值,标准差为stddev的加性高斯噪声。该层在克服过拟合时比较有用,你可以将它看作是随机的数据提升。高斯噪声是需要对输入数据进行破坏时的自然选择。因为这是一个起正则化作用的层,该层只在训练时才有效。

表名:dl_layer_gaussiannoise.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 stddev stddev float stddev,代表要产生的高斯噪声标准差 *必填
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

局部连接层

LocallyConnected1D层

LocallyConnected1D层与Conv1D工作方式类似,唯一的区别是不进行权值共享。即施加在不同输入位置的滤波器是不一样的。

表名:dl_layer_locallyconnected1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
步长 strides str 步长,strides,卷积的步长。整数列表,列表用英文逗号(,)分隔,例如 12,34 1
padding padding choice padding,补0策略 valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 None
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

LocallyConnected2D层

LocallyConnected2D层与Convolution2D工作方式类似,唯一的区别是不进行权值共享。即施加在不同输入patch的滤波器是不一样的,当使用该层作为模型首层时,需要提供参数input_dim或input_shape参数。参数含义参考Convolution2D。

表名:dl_layer_locallyconnected2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
步长 strides str 步长,strides,卷积的步长。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 1,1
padding padding choice padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 None
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

嵌入层

Embedding层

嵌入层将正整数(下标)转换为具有固定大小的向量,如[[4],[20]]->[[0.25,0.1],[0.6,-0.2]]

Embedding层只能作为模型的第一层

表名:dl_layer_embedding.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 input_dim input_dim int input_dim,字典长度,即输入数据最大下标+1 *必填
output_dim output_dim int output_dim,全连接嵌入的维度 *必填
嵌入矩阵初始化 embeddings_initializer choice 嵌入矩阵初始化,embeddings_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 uniform
自定义嵌入矩阵初始化 user_embeddings_initializer code 自定义嵌入矩阵初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
嵌入矩阵正则项 embeddings_regularizer choice 嵌入矩阵正则项,embeddings_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
嵌入矩阵正则项L1 embeddings_regularizer_l1 float 嵌入矩阵正则项L1,如果使用L1L2正则化,此参数有效 0
嵌入矩阵正则项L2 embeddings_regularizer_l2 float 嵌入矩阵正则项L2,如果使用L1L2正则化,此参数有效 0
自定义嵌入矩阵正则项 user_embeddings_regularizer code 自定义嵌入矩阵正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
嵌入矩阵约束项 embeddings_constraint choice 嵌入矩阵约束项,embeddings_constraint,在优化过程中为网络的参数施加约束 None
自定义嵌入矩阵约束项 user_embeddings_constraint code 自定义嵌入矩阵约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
mask_zero mask_zero bool mask_zero,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 1 False
input_length input_length int input_length,当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断 None
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

常用层

激活层(Activation)

激活层,对一个层的输出施加激活函数

表名:dl_layer_activation.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

ActivityRegularization层

ActivityRegularizer层,经过本层的数据不会有任何变化,但会基于其激活值更新损失函数值,可设置L1/L2范数更新损失函数。

表名:dl_layer_activityregularization.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 L1范数 l1 float L1范数,l1,L1范数正则因子(正浮点数) 0.0
L2范数 l2 float L2范数,l2,L2范数正则因子(正浮点数) 0.0
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

全连接层(Dense)

Dense,全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素计算的激活函数,kernel是本层的权值矩阵,bias为偏置向量,只有当use_bias=True才会添加。

表名:dl_layer_dense.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 Zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Dropout层

为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时按一定概率(rate)随机断开输入神经元,用于防止过拟合。

表名:dl_layer_dropout.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 rate rate float rate,0~1的浮点数,控制需要断开的神经元的比例 *必填
noise_shape noise_shape str noise_shape,为将要应用在输入上的二值Dropout mask的shape,例如你的输入为(batch_size, timesteps, features),并且你希望在各个时间步上的Dropout mask都相同,则可传入noise_shape=(batch_size, 1, features) None
随机数种子 seed int 随机数种子 None
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Flatten层

Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Flatten不影响batch的大小。

表名:dl_layer_flatten.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

输入层(Input)

张量输入层

表名:dl_layer_input.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 shape shape str shape, 输入张量形状,用英文逗号(,)分隔的整数列表,例如 32,24,表示输入数据是一系列的 32x24的矩阵 None
batch_shape batch_shape str batch_shape, A shape tuple (integer), including the batch size. For instance, batch_shape=10,32 indicates that the expected input will be batches of 10 32-dimensional vectors. batch_shape=None,32 indicates batches of an arbitrary number of 32-dimensional vectors. None
数据类型 dtype str 数据类型, The data type expected by the input, as a string (float32, float64, int32...) float32
sparse sparse bool sparse, A boolean specifying whether the placeholder to be created is sparse. False
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Lambda层

Lambda层,实现将任意函数/表达式封装为Layer/层。

表名:dl_layer_lambda.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 函数 function code 函数,求值函数,以输入张量作为参数 [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Masking层

屏蔽层。使用给定的值对输入的序列信号进行“屏蔽”,用以定位需要跳过的时间步。对于输入张量的时间步,即输入张量的第1维度(维度从0开始算,见例子),如果输入张量在该时间步上都等于mask_value,则该时间步将在模型接下来的所有层(只要支持masking)被跳过(屏蔽)。如果模型接下来的一些层不支持masking,却接受到masking过的数据,则抛出异常。

表名:dl_layer_masking.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 mask_value mask_value float mask_value 0.0
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Permute层

Permute层将输入的维度按照给定模式进行重排,例如,当需要将RNN和CNN网络连接时,可能会用到该层。

表名:dl_layer_permute.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 dims dims str dims, 指定重排的模式,不包含样本数的维度。重拍模式的下标从1开始。例如 2,1 代表将输入的第二个维度重拍到输出的第一个维度,而将输入的第一个维度重排到第二个维度,用英文逗号(,)分隔的整数列表,例如 32,24 *必填
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

RepeatVector层

RepeatVector层将输入重复n次。

表名:dl_layer_repeatvector.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 重复次数 n int 重复次数 *必填
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Reshape层

任意,但输入的shape必须固定。当使用该层为模型首层时,需要指定input_shape参数

表名:dl_layer_reshape.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 target_shape target_shape str target_shape, 目标shape,不包含样本数目的维度(batch大小),用英文逗号(,)分隔的整数列表,例如 32,24,表示输入数据是一系列的 32x24的矩阵 *必填
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

循环层

ConvLSTM2D层

ConvLSTM2D是一个LSTM网络,但它的输入变换和循环变换是通过卷积实现的

表名:dl_layer_convlstm2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 卷积核数目 filters int 卷积核数目,filters,即输出的维度 *必填
kernel_size kernel_size str kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 *必填
strides strides str strides,卷积步长。当不等于1时,无法使用dilation功能,即dialation_rate必须为1。整数列表,列表用英文逗号(,)分隔,例如 12,34 1,1
padding padding choice padding,补0策略 valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
dilation_rate dilation_rate str dilation_rate,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。。整数列表,列表用英文逗号(,)分隔,例如 12,34 1,1
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
recurrent激活函数 recurrent_activation choice recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 hard_sigmoid
recurrent自定义激活函数 user_recurrent_activation code recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
unit_forget_bias unit_forget_bias bool unit_forget_bias,如果为, 初始化时在遗忘门的偏置项加1。设置为True,会强制使bias_initializer="Zeros" True
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
return_sequences return_sequences bool return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 False
go_backwards go_backwards bool go_backwards,默认为False,若为True,则逆向处理输入序列并返回逆序后的序列 False
stateful stateful bool stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 False
dropout dropout float dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 0.0
recurrent_dropout recurrent_dropout float recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 0.0
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

CuDNNGRU层

基于CuDNN的快速GRU实现,只能在GPU上运行,只能使用tensoflow为后端

表名:dl_layer_cudnngru.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
return_sequences return_sequences bool return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 False
return_state return_state bool return_state,是否在输出中返回最后状态 False
stateful stateful bool stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 False
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

CuDNNLSTM层

Fast LSTM implementation backed by CuDNN.

表名:dl_layer_cudnnlstm.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
unit_forget_bias unit_forget_bias bool unit_forget_bias,如果为, 初始化时在遗忘门的偏置项加1。设置为True,会强制使bias_initializer="Zeros" True
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
return_sequences return_sequences bool return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 False
return_state return_state bool return_state,是否在输出中返回最后状态 False
stateful stateful bool stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 False
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GRU层

门限循环单元。GRU(Gate Recurrent Unit)是循环神经网络(RNN)的一种。和LSTM一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的,但是计算效率更高。

参考文献 - On the Properties of Neural Machine Translation: Encoder–Decoder Approaches - Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling - A Theoretically Grounded Application of Dropout in Recurrent Neural Networks

表名:dl_layer_gru.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
dropout dropout float dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 0.0
recurrent_dropout recurrent_dropout float recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 0.0
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
return_sequences return_sequences bool return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 False
go_backwards go_backwards bool go_backwards,默认为False,若为True,则逆向处理输入序列并返回逆序后的序列 False
stateful stateful bool stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 False
unroll unroll bool unroll,若为True,则循环层将被展开,否则就使用符号化的循环。当使用TensorFlow为后端时,循环网络本来就是展开的,因此该层不做任何事情。层展开会占用更多的内存,但会加速RNN的运算。层展开只适用于短序列。 False
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GRUCell层

GRU的Cell类

表名:dl_layer_grucell.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
recurrent激活函数 recurrent_activation choice recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 hard_sigmoid
recurrent自定义激活函数 user_recurrent_activation code recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
dropout dropout float dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 0.0
recurrent_dropout recurrent_dropout float recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 0.0
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

LSTM层

LSTM层,长短期记忆模型,RNN的一种,可以解决梯度爆炸的问题。关于此算法的详情,请参考 教程 - Long short-term memory (original 1997 paper) - Learning to forget: Continual prediction with LSTM - Supervised sequence labeling with recurrent neural networks - A Theoretically Grounded Application of Dropout in Recurrent Neural Networks

表名:dl_layer_lstm.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
recurrent激活函数 recurrent_activation choice recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 hard_sigmoid
recurrent自定义激活函数 user_recurrent_activation code recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
是否使用偏置项 use_bias bool 是否使用偏置项,use_bias True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 Orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 Zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
unit_forget_bias unit_forget_bias bool unit_forget_bias,Boolean. If True, add 1 to the bias of the forget gate at initialization. Setting it to true will also force bias_initializer="Zeros". This is recommended in Jozefowicz et al. True
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
dropout dropout float dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 0
recurrent_dropout recurrent_dropout float recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 0
返回整个输出序列 return_sequences bool 返回整个输出序列,若为True则返回整个序列,否则仅返回输出序列的最后一个输出 False
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
层名 name str 层名,名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

LSTMCell层

LSTM的Cell类

表名:dl_layer_lstmcell.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
recurrent激活函数 recurrent_activation choice recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 hard_sigmoid
recurrent自定义激活函数 user_recurrent_activation code recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
unit_forget_bias unit_forget_bias bool unit_forget_bias,如果为, 初始化时在遗忘门的偏置项加1。设置为True,会强制使bias_initializer="Zeros" True
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
dropout dropout float dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 0.0
recurrent_dropout recurrent_dropout float recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 0.0
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

SimpleRNN层

全连接RNN网络,RNN的输出会被回馈到输入。

表名:dl_layer_simplernn.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
dropout dropout float dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 0.0
recurrent_dropout recurrent_dropout float recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 0.0
return_sequences return_sequences bool return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 False
return_state return_state bool return_state,是否在输出中返回最后状态 False
go_backwards go_backwards bool go_backwards,默认为False,若为True,则逆向处理输入序列并返回逆序后的序列 False
stateful stateful bool stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 False
unroll unroll bool unroll,若为True,则循环层将被展开,否则就使用符号化的循环。当使用TensorFlow为后端时,循环网络本来就是展开的,因此该层不做任何事情。层展开会占用更多的内存,但会加速RNN的运算。层展开只适用于短序列。 False
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

SimpleRNNCell层

SinpleRNN的Cell类。

表名:dl_layer_simplernncell.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 输出空间维度 units int 输出空间维度,units,正整数 *必填
激活函数 activation choice 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 tanh
自定义激活函数 user_activation code 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) [默认代码](javascript:void(0);)
use_bias use_bias bool use_bias,是否使用偏置项 True
权值初始化方法 kernel_initializer choice 权值初始化方法,kernel_initializer,使用的是使用默认参数 glorot_uniform
自定义权值初始化方法 user_kernel_initializer code 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
循环核初始化方法 recurrent_initializer choice 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 orthogonal
自定义循环核初始化方法 user_recurrent_initializer code 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
偏置向量初始化方法 bias_initializer choice 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 zeros
自定义偏置向量初始化方法 user_bias_initializer code 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
权值正则项 kernel_regularizer choice 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
权值正则项L1 kernel_regularizer_l1 float 权值正则项L1,如果使用L1L2正则化,此参数有效 0
权值正则项L2 kernel_regularizer_l2 float 权值正则项L2,如果使用L1L2正则化,此参数有效 0
自定义权值正则项 user_kernel_regularizer code 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
循环核正则项 recurrent_regularizer choice 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
循环核正则项L1 recurrent_regularizer_l1 float 循环核正则项L1,如果使用L1L2正则化,此参数有效 0
循环核正则项L2 recurrent_regularizer_l2 float 循环核正则项L2,如果使用L1L2正则化,此参数有效 0
自定义循环核正则项 user_recurrent_regularizer code 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
偏置向量正则项 bias_regularizer choice 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
偏置向量正则项L1 bias_regularizer_l1 float 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 0
偏置向量正则项L2 bias_regularizer_l2 float 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 0
自定义偏置向量正则项 user_bias_regularizer code 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
输出正则项 activity_regularizer choice 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
输出正则项L1 activity_regularizer_l1 float 输出正则项L1,如果使用L1L2正则化,此参数有效 0
输出正则项L2 activity_regularizer_l2 float 输出正则项L2,如果使用L1L2正则化,此参数有效 0
自定义输出正则项 user_activity_regularizer code 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
权值约束项 kernel_constraint choice 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 None
自定义权值约束项 user_kernel_constraint code 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
循环核约束项 recurrent_constraint choice 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 None
自定义循环核约束项 user_recurrent_constraint code 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
偏置向量约束项 bias_constraint choice 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 None
自定义偏置向量约束项 user_bias_constraint code 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
dropout dropout float dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 0.0
recurrent_dropout recurrent_dropout float recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 0.0
implementation implementation choice implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 2
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

StackedRNNCells层

这是一个wrapper,用于将多个recurrent cell包装起来,使其行为类型单个cell。该层用于实现高效的stacked RNN。

表名:dl_layer_stackedrnncells.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 RNN Cell cell1 通用 RNN Cell *必填
RNN Cell cell2 通用 RNN Cell None
RNN Cell cell3 通用 RNN Cell None
RNN Cell cell4 通用 RNN Cell None
输入 inputs 通用 输入 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

数据处理

序列窗口滚动(深度学习)

表名:dl_convert_to_bin.v2

类别 显示名称 名称 类型 描述 必填/默认
输入端 DataSource数据 input_data 通用 DataSource数据 *必填
特征列表 features 通用 特征列表 *必填
输入参数 窗口大小 window_size int 窗口大小,滚动窗口大小,1为不滚动,只用当前一行特征 1
特征裁剪值 feature_clip int 特征裁剪值 5
是否特征展开 flatten bool 是否特征展开,如果为True是(window_size*feature_size,),False是(window_wize,feature_size) True
分组滚动窗口 window_along_col str 分组滚动窗口,按window_along_col字段分组窗口滚动 instrument
输出端 输出 data 通用 输出

池化层

AveragePooling1D层

对时域1D信号进行平均值池化

表名:dl_layer_averagepooling1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 池化的窗口大小 pool_size int 池化的窗口大小,窗口大小,pool_size,整数,池化 2
下采样因子 strides int 下采样因子,strides,整数或None,例如设2将会使得输出shape为输入的一半,若为None则默认值为pool_size None
padding padding choice padding valid
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

AveragePooling2D层

为空域信号施加平均值池化

表名:dl_layer_averagepooling2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 pool_size pool_size str pool_size,代表在两个方向(竖直,水平)上的下采样因子,如取(2,2)将使图片在两个维度上均变为原长的一半。为整数意为各个维度值相同且为该数字。。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 2,2
步长 strides str 步长,strides,步长值,如果不设置,默认是pool_size。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 None
padding方式 padding choice padding方式,padding,用于在卷积时保持边界信息。SAME方式,直接填充;VALID方式,直接计算输出 valid
通道维位置 data_format choice 通道维位置,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

AveragePooling3D层

为3D信号(空域或时空域)施加平均值池化

表名:dl_layer_averagepooling3d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 pool_size pool_size str pool_size,代表在三个维度上的下采样因子,如取(2,2,2)将使信号在每个维度都变为原来的一半长。。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 2,2,2
步长 strides str 步长,strides,步长值,如果不设置,默认是pool_size。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 None
padding方式 padding choice padding方式,padding,用于在卷积时保持边界信息。SAME方式,直接填充;VALID方式,直接计算输出 valid
通道维位置 data_format choice 通道维位置,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GlobalAveragePooling1D层

为时域信号施加全局平均值池化

表名:dl_layer_globalaveragepooling1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GlobalAveragePooling2D层

为空域信号施加全局最大值池化

表名:dl_layer_globalaveragepooling2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GlobalMaxPooling1D层

对于时间信号的全局最大池化

表名:dl_layer_globalmaxpooling1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

GlobalMaxPooling2D层

为空域信号施加全局最大值池化

表名:dl_layer_globalmaxpooling2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

MaxPooling1D层

对时域1D信号进行最大值池化。

表名:dl_layer_maxpooling1d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 窗口大小 pool_size int 窗口大小,pool_size,整数,池化 2
下采样因子 strides int 下采样因子,strides,整数或None,例如设2将会使得输出shape为输入的一半,若为None则默认值为pool_size None
padding padding choice padding valid
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

MaxPooling2D层

为空域信号施加最大值池化。

表名:dl_layer_maxpooling2d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 pool_size pool_size str pool_size,代表在两个方向(竖直,水平)上的下采样因子,如取(2,2)将使图片在两个维度上均变为原长的一半。为整数意为各个维度值相同且为该数字。。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 2,2
步长 strides str 步长,strides,步长值,如果不设置,默认是pool_size。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 None
padding padding choice padding valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

MaxPooling3D层

为3D信号(空域或时空域)施加最大值池化。

表名:dl_layer_maxpooling3d.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 pool_size pool_size str pool_size,代表在三个维度上的下采样因子,如取(2,2,2)将使信号在每个维度都变为原来的一半长。。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 2,2,2
步长 strides str 步长,strides,步长值,如果不设置,默认是pool_size。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 None
padding padding choice padding valid
通道维位置 data_format choice 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 channels_last
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

融合层

Add层

属于融合层。属于融合层。该层接收一个列表的同shape张量,并返回它们的和,shape不变。

表名:dl_layer_add.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入1 input1 通用 输入1 *必填
输入2 input2 通用 输入2 *必填
输入3 input3 通用 输入3 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Average层

属于融合层。属于融合层。该层接收一个列表的同shape张量,并返回它们的逐元素均值,shape不变。

表名:dl_layer_average.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入1 input1 通用 输入1 *必填
输入2 input2 通用 输入2 *必填
输入3 input3 通用 输入3 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Concatenate层

该层接收一个列表的同shape张量,并返回它们的按照给定轴相接构成的向量。

表名:dl_layer_concatenate.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入1 input1 通用 输入1 *必填
输入2 input2 通用 输入2 *必填
输入3 input3 通用 输入3 None
输入参数 axis axis int axis,想接的轴 -1
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Dot层

点积层,属于融合层。计算两个tensor中样本的张量乘积。例如,如果两个张量a和b的shape都为(batch_size, n),则输出为形如(batch_size,1)的张量,结果张量每个batch的数据都是a[i,:]和b[i,:]的矩阵(向量)点积。

表名:dl_layer_dot.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入1 input1 通用 输入1 *必填
输入2 input2 通用 输入2 *必填
输入参数 axes axes str axes,执行乘法的轴,用英文逗号(,)分隔的整数列表,例如 32,24 *必填
normalize normalize bool normalize,是否沿执行成绩的轴做L2规范化,如果设为True,那么乘积的输出是两个样本的余弦相似性。 False
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Maximum层

该层接收一个列表的同shape张量,并返回它们的逐元素最大值,shape不变。

表名:dl_layer_maximum.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入1 input1 通用 输入1 *必填
输入2 input2 通用 输入2 *必填
输入3 input3 通用 输入3 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Multiply层

该层接收一个列表的同shape张量,并返回它们的逐元素积的张量,shape不变。

表名:dl_layer_multiply.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入1 input1 通用 输入1 *必填
输入2 input2 通用 输入2 *必填
输入3 input3 通用 输入3 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

Subtract层

该层接收两个同shape张量,并返回它们的逐元素差的张量,shape不变。

表名:dl_layer_subtract.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入1 input1 通用 输入1 *必填
输入2 input2 通用 输入2 *必填
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

规范层

BatchNormalization层

该层在每个batch上将前一层的激活值重新规范化,使其输出数据的均值接近0,其标准差接近1。

BN层的作用:加速收敛;控制过拟合,可以少用或不用Dropout和正则;降低网络对初始化权重不敏感;允许使用较大的学习率。

表名:dl_layer_batchnormalization.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 需要规范化的轴 axis int 需要规范化的轴,axis,指定要规范化的轴,通常为特征轴。例如在进行data_format="channels_first的2D卷积后,一般会设axis=1 -1
动量 momentum float 动量,momentum,动态均值的动量 0.99
epsilon epsilon float epsilon,大于0的小浮点数,用于防止除0错误 0.001
中心化 center bool 中心化,center,若设为True,将会将beta作为偏置加上去,否则忽略参数beta True
规范化 scale bool 规范化,scale,若设为True,则会乘以gamma,否则不使用gamma。当下一层是线性的时,可以设False,因为scaling的操作将被下一层执行。 True
beta初始化 beta_initializer choice beta初始化,beta_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 zeros
自定义beta初始化 user_beta_initializer code 自定义beta初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
gamma初始化 gamma_initializer choice gamma初始化,gamma_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 ones
自定义gamma初始化 user_gamma_initializer code 自定义gamma初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
moving_mean初始化 moving_mean_initializer choice moving_mean初始化,moving_mean_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 zeros
自定义moving_mean初始化 user_moving_mean_initializer code 自定义moving_mean初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
moving_variance初始化 moving_variance_initializer choice moving_variance初始化,moving_variance_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 ones
自定义moving_variance初始化 user_moving_variance_initializer code 自定义moving_variance初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
beta正则项 beta_regularizer choice beta正则项,beta_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
beta正则项 L1 beta_regularizer_l1 float beta正则项 L1,如果使用L1L2正则化,此参数有效 0
beta正则项 L2 beta_regularizer_l2 float beta正则项 L2,如果使用L1L2正则化,此参数有效 0
自定义beta正则项 user_beta_regularizer code 自定义beta正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
gamma正则项 gamma_regularizer choice gamma正则项,gamma_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
gamma正则项 L1 gamma_regularizer_l1 float gamma正则项 L1,如果使用L1L2正则化,此参数有效 0
gamma正则项 L2 gamma_regularizer_l2 float gamma正则项 L2,如果使用L1L2正则化,此参数有效 0
自定义gamma正则项 user_gamma_regularizer code 自定义gamma正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
beta约束项 beta_constraint choice beta约束项,beta_constraint,在优化过程中为网络的参数施加约束。本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 None
自定义beta约束项 user_beta_constraint code 自定义beta约束项,示例: def bigquant_run(w): from tensorflow.keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
gamma约束项 gamma_constraint choice gamma约束项,gamma_constraint,在优化过程中为网络的参数施加约束。本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 None
自定义gamma约束项 user_gamma_constraint code 自定义gamma约束项,示例: def bigquant_run(w): from tensorflow.keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

LayerNormalization层

LayerNormalization是对输出归一化的,消除各层的covariate shift,加快收敛速度。

表名:dl_layer_layernormalization.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

高级激活层

ELU层

ELU层是指数线性单元(Exponential Linera Unit),表达式为: 该层为参数化的ReLU(Parametric ReLU),表达式是:f(x) = alpha * (exp(x) - 1.) for x < 0, f(x) = x for x>=0

表名:dl_layer_elu.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 alpha alpha float alpha,scale for the negative factor,控制负因子的参数 1.0
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

LeakyReLU层

LeakyRelU是修正线性单元(Rectified Linear Unit,ReLU)的特殊版本,当不激活时,LeakyReLU仍然会有非零输出值,从而获得一个小梯度,避免ReLU可能出现的神经元“死亡”现象。即,f(x)=alpha * x for x < 0, f(x) = x for x>=0

表名:dl_layer_leakyrelu.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 alpha alpha float alpha,Negative slope coefficient,代表激活函数图像中第三象限线段的斜率 0.3
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

PReLU层

该层为参数化的ReLU(Parametric ReLU),表达式是:f(x) = alpha * x for x < 0, f(x) = x for x>=0,此处的alpha为一个与xshape相同的可学习的参数向量。

表名:dl_layer_prelu.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 alpha初始化 alpha_initializer choice alpha初始化,alpha_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 zeros
自定义alpha初始化 user_alpha_initializer code 自定义alpha初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) [默认代码](javascript:void(0);)
alpha正则项 alpha_regularizer choice alpha正则项,alpha_regularizer,如果使用L1L2,可配置如下L1,L2参数 None
alpha正则项 L1 alpha_regularizer_l1 float alpha正则项 L1,如果使用L1L2正则化,此参数有效 0
alpha正则项 L2 alpha_regularizer_l2 float alpha正则项 L2,如果使用L1L2正则化,此参数有效 0
自定义alpha正则项 user_alpha_regularizer code 自定义alpha正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) [默认代码](javascript:void(0);)
alpha约束项 alpha_constraint choice alpha约束项,alpha_constraint,在优化过程中为网络的参数施加约束。本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 None
自定义alpha约束项 user_alpha_constraint code 自定义alpha约束项,示例: def bigquant_run(w): from tensorflow.keras.constraints import max_norm return max_norm(2.)(w) [默认代码](javascript:void(0);)
共享轴 shared_axes str 共享轴,shared_axes,该参数指定的轴将共享同一组科学系参数,例如假如输入特征图是从2D卷积过来的,具有形如(batch, height, width, channels)这样的shape,则或许你会希望在空域共享参数,这样每个filter就只有一组参数,设定shared_axes=[1,2]可完成该目标。整数列表,列表用英文逗号(,)分隔,例如 12,34 None
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

ThresholdedReLU层

该层是带有门限的ReLU,表达式是:f(x) = x for x > theta,f(x) = 0 otherwise。

表名:dl_layer_thresholdedrelu.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 theta theta float theta,Threshold location of activation,激活门限位置 1.0
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

自定义层

自定义层

对于简单的定制操作,我们或许可以通过使用layers.core.Lambda层来完成。但对于任何具有可训练权重的定制层,你应该自己来实现。

这里是一个层应该具有的框架结构,要定制自己的层,你需要实现下面三个方法: - build(input_shape):这是定义权重的方法,可训练的权应该在这里被加入列表`self.trainable_weights中。其他的属性还包括self.non_trainabe_weights(列表)和self.updates(需要更新的形如(tensor, new_tensor)的tuple的列表)。你可以参考BatchNormalization层的实现来学习如何使用上面两个属性。这个方法必须设置self.built = True,可通过调用super([layer],self).build()实现 - call(x):这是定义层功能的方法,除非你希望你写的层支持masking,否则你只需要关心call的第一个参数:输入张量 - compute_output_shape(input_shape):如果你的层修改了输入数据的shape,你应该在这里指定shape变化的方法,这个函数使得Keras可以做自动shape推断

表名:dl_layer_userlayer.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 输入 inputs 通用 输入 None
输入参数 用户层定义 layer_class code 用户层定义 [默认代码](javascript:void(0);)
名字 name str 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 None
输出端 输出 data 通用 输出

模型评估

分类-评估

分类评估。输入模型结果,输出评估结果:精准率-召回率曲线、ROC-AUC、常用指标、准确率与错误率、混淆矩阵。

表名:metrics_classification.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 预测结果 predictions 通用 预测结果,提供模型预测出的分类及分类对应概率 *必填
输出端 评估报告 data 通用 评估报告

回归-评估

回归评估。输入模型结果,输出对于回归的评估结果。具体评估标准包括R2,MSE,MAE等。

表名:metrics_regression.v1

类别 显示名称 名称 类型 描述 必填/默认
输入端 预测结果 predictions 通用 预测结果,提供模型预测出的分类及分类对应概率 None
输入参数 可解释方差权重 explained_variance_score bool 可解释方差权重, True
平均绝对误差 mean_absolute_error bool 平均绝对误差 True
均方误差权重 mean_squared_error bool 均方误差权重 True
均方对数误差权重 mean_squared_log_error bool 均方对数误差权重 True
均方绝对误差 median_absolute_error bool 均方绝对误差 True
确定系数(r^2)权重 r2_score bool 确定系数(r^2)权重,列表类型 True
输出端 评估报告 report 通用 评估报告

\