【历史文档】算子-深度学习
由polll创建,最终由small_q 被浏览 1518 用户
{{use_style}}
更新
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平台:
https://bigquant.com/data/home
https://bigquant.com/wiki/doc/dai-PLSbc1SbZX
新版表达式算子:
https://bigquant.com/wiki/doc/dai-sql-Rceb2JQBdS
新版因子平台:
https://bigquant.com/wiki/doc/bigalpha-EOVmVtJMS5
\
深度学习
模型
构建(深度学习)
构造一个拥有输入和输出的模型。我们使用Model来初始化构造一个函数式模型。
表名:dl_model_init.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输出 | outputs | 通用 | 输出 | None | |
输出端 | 模型 | data | 通用 | 模型 |
预测(深度学习)
深度学习模型预测。
表名:dl_model_predict.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 模型 | trained_model | 通用 | 模型 | *必填 |
数据 | input_data | 通用 | 数据,pickle格式dict,包含x | *必填 | |
输入参数 | batch_size | batch_size | int | batch_size,进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。 | 32 |
gpu个数 | n_gpus | int | gpu个数,本模块使用的gpu个数 | 0 | |
日志输出 | verbose | choice | 日志输出 | 2:每个epoch输出一行记录 | |
输出端 | 预测结果 | data | 通用 | 预测结果 |
训练(深度学习)
深度学习模型模型编译和训练。
表名:dl_model_train.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 模型结构 | input_model | 通用 | 模型结构 | *必填 |
训练数据 | training_data | 通用 | 训练数据,pickle格式dict,包含x和y | *必填 | |
验证数据 | validation_data | 通用 | 验证数据,pickle格式dict,包含x和y | None | |
输入参数 | 优化器 | optimizer | choice | 优化器,optimizer,优化器使用的是使用默认参数,如果需要修改参数,可以使用自定义优化器 | SGD |
自定义优化器 | user_optimizer | code | 自定义优化器,示例: from tensorflow.keras import optimizers bigquant_run=optimizers.SGD(lr=0.01, clipvalue=0.5) | [默认代码](javascript:void(0);) | |
目标函数 | loss | choice | 目标函数,loss,目标函数/损失函数 | mean_squared_error | |
自定义目标函数 | user_loss | code | 自定义目标函数,示例: from tensorflow.keras import losses bigquant_run=losses.mean_squared_error | [默认代码](javascript:void(0);) | |
评估指标 | metrics | str | 评估指标,包含评估模型在训练和测试时的性能的指标,多个指标用英文逗号(,)分隔。示例:mse,accuracy | None | |
batch_size | batch_size | int | batch_size,进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。 | 32 | |
epochs | epochs | int | epochs,训练终止时的epoch值,训练将在达到该epoch值时停止,当没有设置initial_epoch时,它就是训练的总轮数,否则训练的总轮数为epochs - inital_epoch | 1 | |
gpu个数 | n_gpus | int | gpu个数,本模块使用的gpu个数 | 0 | |
日志输出 | verbose | choice | 日志输出 | 2:每个epoch输出一行记录 | |
输出端 | 训练后的模型 | data | 通用 | 训练后的模型 |
包装器
Bidirectional层
双向RNN包装器
表名:dl_layer_bidirectional.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入层 | layer | 通用 | 输入层 | *必填 |
输入 | inputs | 通用 | 输入 | None | |
输入参数 | merge_mode | merge_mode | choice | merge_mode,Mode by which outputs of the forward and backward RNNs will be combined. 前向和后向RNN输出的结合方式,为sum,mul,concat,ave和None之一,若设为None,则返回值不结合,而是以列表的形式返回 | None |
weights | weights | str | weights,列表,列表用英文逗号(,)分隔,例如 1,2 | None | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
TimeDistributed层
该包装器可以把一个层应用到输入的每一个时间步上。
表名:dl_layer_timedistributed.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入层 | layer | 通用 | 输入层 | *必填 |
输入 | inputs | 通用 | 输入 | None | |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
卷积层
Conv1D层
一维卷积层(即时域卷积),用以在一维输入信号上进行邻域滤波。当使用该层作为首层时,需要提供关键字参数input_shape。例如(10,128)代表一个长为10的序列,序列中每个信号为128向量。而(None, 128)代表变长的128维向量序列。
该层生成将输入信号与卷积核按照单一的空域(或时域)方向进行卷积。如果use_bias=True,则还会加上一个偏置项,若activation不为None,则输出为经过激活函数的输出。
表名:dl_layer_conv1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
步长 | strides | str | 步长,strides,卷积的步长。整数列表,列表用英文逗号(,)分隔,例如 12,34 | 1 | |
padding | padding | choice | padding,补0策略,为“valid”, “same” 或“causal”,“causal”将产生因果(膨胀的)卷积,即output[t]不依赖于input[t+1:]。当对不能违反时间顺序的时序信号建模时有用。参考WaveNet: A Generative Model for Raw Audio, section 2.1.。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 | valid | |
dilation_rate | dilation_rate | int | dilation_rate,整数,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 | 1 | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | None | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | Zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Conv2D层
二维卷积层,即对图像的空域卷积。该层对二维输入进行滑动窗卷积,当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (128,128,3)代表128*128的彩色RGB图像(data_format='channels_last')
表名:dl_layer_conv2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
步长 | strides | str | 步长,strides,卷积的步长。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 | 1,1 | |
padding | padding | choice | padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
dilation_rate | dilation_rate | str | dilation_rate,整数或由2个整数构成的list/tuple,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 | 1,1 | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | None | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | Zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Conv2DTranspose层
该层是转置的卷积操作(反卷积)。需要反卷积的情况通常发生在用户想要对一个普通卷积的结果做反方向的变换。例如,将具有该卷积层输出shape的tensor转换为具有该卷积层输入shape的tensor。同时保留与卷积层兼容的连接模式。
当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (3,128,128)代表128*128的彩色RGB图像
表名:dl_layer_conv2dtranspose.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
卷积的步长 | strides | str | 卷积的步长,strides,单个整数或由两个整数构成的list/tuple,为卷积的步长。如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rate均不兼容。用英文逗号(,)分隔的整数列表,例如 10,20 | 1,1 | |
padding | padding | choice | padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
dilation_rate | dilation_rate | str | dilation_rate,整数或由2个整数构成的list/tuple,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 | 1,1 | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | None | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Conv3D层
三维卷积对三维的输入进行滑动窗卷积,当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (3,10,128,128)代表对10帧128*128的彩色RGB图像进行卷积。数据的通道位置仍然有data_format参数指定。
表名:dl_layer_conv3d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
卷积的步长 | strides | str | 卷积的步长,strides,单个整数或由3个整数构成的list/tuple,为卷积的步长。如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rate均不兼容 | 1,1,1 | |
padding | padding | choice | padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
dilation_rate | dilation_rate | str | dilation_rate,单个整数或由3个个整数构成的list/tuple,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。 | 1,1,1 | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | None | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Cropping1D层
在时间轴(axis1)上对1D输入(即时间序列)进行裁剪
表名:dl_layer_cropping1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | cropping | cropping | str | cropping,长为2的tuple,指定在序列的首尾要裁剪掉多少个元素,用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 | 1,1 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Cropping2D层
对2D输入(图像)进行裁剪,将在空域维度,即宽和高的方向上裁剪 (e.g. picture).
表名:dl_layer_cropping2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | cropping | cropping | str | cropping,长为4的列表,2个一组,分别为宽和高方向上头部与尾部需要裁剪掉的元素数。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 | 0,0,0,0 |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Cropping3D层
对3D输入(图像)进行裁剪 (e.g. spatial or spatio-temporal).
表名:dl_layer_cropping3d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | cropping | cropping | str | cropping,长为6的列表,2个一组,分别为三个方向上头部与尾部需要裁剪掉的元素数。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 | 1,1,1,1,1,1 |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
SeparableConv2D层
该层是在深度方向上的可分离卷积。可分离卷积首先按深度方向进行卷积(对每个输入通道分别卷积),然后逐点进行卷积,将上一步的卷积结果混合到输出通道中。参数depth_multiplier控制了在depthwise卷积(第一步)的过程中,每个输入通道信号产生多少个输出通道。直观来说,可分离卷积可以看做讲一个卷积核分解为两个小的卷积核,或看作Inception模块的一种极端情况。当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (3,128,128)代表128*128的彩色RGB图像。
表名:dl_layer_separableconv2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
卷积的步长 | strides | str | 卷积的步长,strides,如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rate均不兼容。用英文逗号(,)分隔的整数列表 | 1,1 | |
padding | padding | choice | padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
depth_multiplier | depth_multiplier | str | depth_multiplier,The number of depthwise convolution output channels for each input channel. The total number of depthwise convolution output channels will be equal to filterss_in * depth_multiplier . | 1 | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | None | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
depthwise_initializer | depthwise_initializer | choice | depthwise_initializer,Initializer for the depthwise kernel matrix,使用的是使用默认参数 | glorot_uniform | |
自定义depthwise_initializer | user_depthwise_initializer | code | 自定义depthwise_initializer,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
pointwise_initializer | pointwise_initializer | choice | pointwise_initializer,Initializer for the pointwise kernel matrix,使用的是使用默认参数 | glorot_uniform | |
自定义pointwise_initializer | user_pointwise_initializer | code | 自定义pointwise_initializer,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
depthwise_regularizer | depthwise_regularizer | choice | depthwise_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
depthwise_regularizer L1 | depthwise_regularizer_l1 | float | depthwise_regularizer L1,如果使用L1L2正则化,此参数有效 | 0 | |
depthwise_regularizer L2 | depthwise_regularizer_l2 | float | depthwise_regularizer L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义depthwise_regularizer | user_depthwise_regularizer | code | 自定义depthwise_regularizer,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
pointwise_regularizer | pointwise_regularizer | choice | pointwise_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
pointwise_regularizer L1 | pointwise_regularizer_l1 | float | pointwise_regularizer L1,如果使用L1L2正则化,此参数有效 | 0 | |
pointwise_regularizer L2 | pointwise_regularizer_l2 | float | pointwise_regularizer L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义pointwise_regularizer | user_pointwise_regularizer | code | 自定义pointwise_regularizer,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
depthwise_constraint | depthwise_constraint | choice | depthwise_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义depthwise_constraint | user_depthwise_constraint | code | 自定义depthwise_constraint,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
pointwise_constraint | pointwise_constraint | choice | pointwise_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义pointwise_constraint | user_pointwise_constraint | code | 自定义pointwise_constraint,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
UpSampling1D层
Upsampling layer for 1D inputs。在时间轴上,将每个时间步重复length次。输入形如(samples,steps,features)的3D张量,输出形如(samples,upsampled_steps,features)的3D张量。
表名:dl_layer_upsampling1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 上采样因子 | size | int | 上采样因子,size | 2 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
UpSampling2D层
Upsampling layer for 2D inputs. 将数据的行和列分别重复size[0]和size[1]次。输入和输出均为4D张量。
表名:dl_layer_upsampling2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | size | size | str | size,长为2的列表,分别为行和列上采样因子。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 | 2,2 |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
UpSampling3D层
Upsampling layer for 3D inputs. 将数据的三个维度上分别重复size[0]、size[1]和ize[2]次。输入和输出均为5D张量。
表名:dl_layer_upsampling3d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | size | size | str | size,长为3的列表,分别为行和列上采样因子。列表用英文逗号(,)分隔的整数列表,例如 10 或者 32,24 | 2,2,2 |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
ZeroPadding1D层
对1D输入的首尾端(如时域序列)填充0,以控制卷积以后向量的长度。
表名:dl_layer_zeropadding1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | padding | padding | int | padding,表示在要填充的轴的起始和结束处填充0的数目,这里要填充的轴是轴1(第1维,第0维是样本数) | 1 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
ZeroPadding2D层
对2D输入(如图片)的边界填充0,以控制卷积以后特征图的大小。
表名:dl_layer_zeropadding2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | padding | padding | str | padding,表示在要填充的轴的起始和结束处填充0的数目,这里要填充的轴是轴3和轴4(即在'th'模式下图像的行和列,在‘channels_last’模式下要填充的则是轴2,3)。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 | 2,2 |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
ZeroPadding3D层
将数据的三个维度上填充0。
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | padding | padding | str | padding,长为3的整数列表,列表用英文逗号(,)分隔的整数列表,例如 32,24。表示在要填充的轴的起始和结束处填充0的数目,这里要填充的轴是轴3,轴4和轴5,‘channels_last’模式下则是轴2,3和4 | 1,1,1 |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
噪声层
AlphaDropout层
对输入施加Alpha Dropout。Alpha Dropout是一种保持输入均值和方差不变的Dropout,该层的作用是即使在dropout时也保持数据的自规范性。 通过随机对负的饱和值进行激活,Alphe Drpout与selu激活函数配合较好。
表名:dl_layer_alphadropout.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | dropout率 | rate | float | dropout率,断连概率,与Dropout层相同 | *必填 |
noise_shape | noise_shape | str | noise_shape,noise_shape。整数列表,列表用英文逗号(,)分隔,例如 12,34 | None | |
随机数种子 | seed | int | 随机数种子,整数 | None | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
GaussianDropout层
为层的输入施加以1为均值,标准差为sqrt(rate/(1-rate)的乘性高斯噪声
因为这是一个起正则化作用的层,该层只在训练时才有效。
表名:dl_layer_gaussiandropout.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | rate | rate | float | rate,drop probability (as with Dropout ). The multiplicative noise will have standard deviation sqrt(rate / (1 - rate)). 断连概率,与Dropout层相同 | *必填 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
GaussianNoise层
为数据施加0均值,标准差为stddev的加性高斯噪声。该层在克服过拟合时比较有用,你可以将它看作是随机的数据提升。高斯噪声是需要对输入数据进行破坏时的自然选择。因为这是一个起正则化作用的层,该层只在训练时才有效。
表名:dl_layer_gaussiannoise.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | stddev | stddev | float | stddev,代表要产生的高斯噪声标准差 | *必填 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
局部连接层
LocallyConnected1D层
LocallyConnected1D层与Conv1D工作方式类似,唯一的区别是不进行权值共享。即施加在不同输入位置的滤波器是不一样的。
表名:dl_layer_locallyconnected1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
步长 | strides | str | 步长,strides,卷积的步长。整数列表,列表用英文逗号(,)分隔,例如 12,34 | 1 | |
padding | padding | choice | padding,补0策略 | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | None | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
LocallyConnected2D层
LocallyConnected2D层与Convolution2D工作方式类似,唯一的区别是不进行权值共享。即施加在不同输入patch的滤波器是不一样的,当使用该层作为模型首层时,需要提供参数input_dim或input_shape参数。参数含义参考Convolution2D。
表名:dl_layer_locallyconnected2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
步长 | strides | str | 步长,strides,卷积的步长。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 | 1,1 | |
padding | padding | choice | padding,补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。 | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | None | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
嵌入层
Embedding层
嵌入层将正整数(下标)转换为具有固定大小的向量,如[[4],[20]]->[[0.25,0.1],[0.6,-0.2]]
Embedding层只能作为模型的第一层
表名:dl_layer_embedding.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | input_dim | input_dim | int | input_dim,字典长度,即输入数据最大下标+1 | *必填 |
output_dim | output_dim | int | output_dim,全连接嵌入的维度 | *必填 | |
嵌入矩阵初始化 | embeddings_initializer | choice | 嵌入矩阵初始化,embeddings_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | uniform | |
自定义嵌入矩阵初始化 | user_embeddings_initializer | code | 自定义嵌入矩阵初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
嵌入矩阵正则项 | embeddings_regularizer | choice | 嵌入矩阵正则项,embeddings_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
嵌入矩阵正则项L1 | embeddings_regularizer_l1 | float | 嵌入矩阵正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
嵌入矩阵正则项L2 | embeddings_regularizer_l2 | float | 嵌入矩阵正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义嵌入矩阵正则项 | user_embeddings_regularizer | code | 自定义嵌入矩阵正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
嵌入矩阵约束项 | embeddings_constraint | choice | 嵌入矩阵约束项,embeddings_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义嵌入矩阵约束项 | user_embeddings_constraint | code | 自定义嵌入矩阵约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
mask_zero | mask_zero | bool | mask_zero,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 1 | False | |
input_length | input_length | int | input_length,当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断 | None | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
常用层
激活层(Activation)
激活层,对一个层的输出施加激活函数
表名:dl_layer_activation.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
ActivityRegularization层
ActivityRegularizer层,经过本层的数据不会有任何变化,但会基于其激活值更新损失函数值,可设置L1/L2范数更新损失函数。
表名:dl_layer_activityregularization.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | L1范数 | l1 | float | L1范数,l1,L1范数正则因子(正浮点数) | 0.0 |
L2范数 | l2 | float | L2范数,l2,L2范数正则因子(正浮点数) | 0.0 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
全连接层(Dense)
Dense,全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素计算的激活函数,kernel是本层的权值矩阵,bias为偏置向量,只有当use_bias=True才会添加。
表名:dl_layer_dense.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | Zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Dropout层
为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时按一定概率(rate)随机断开输入神经元,用于防止过拟合。
表名:dl_layer_dropout.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | rate | rate | float | rate,0~1的浮点数,控制需要断开的神经元的比例 | *必填 |
noise_shape | noise_shape | str | noise_shape,为将要应用在输入上的二值Dropout mask的shape,例如你的输入为(batch_size, timesteps, features),并且你希望在各个时间步上的Dropout mask都相同,则可传入noise_shape=(batch_size, 1, features) | None | |
随机数种子 | seed | int | 随机数种子 | None | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Flatten层
Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Flatten不影响batch的大小。
表名:dl_layer_flatten.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
输入层(Input)
张量输入层
表名:dl_layer_input.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | shape | shape | str | shape, 输入张量形状,用英文逗号(,)分隔的整数列表,例如 32,24,表示输入数据是一系列的 32x24的矩阵 | None |
batch_shape | batch_shape | str | batch_shape, A shape tuple (integer), including the batch size. For instance, batch_shape=10,32 indicates that the expected input will be batches of 10 32-dimensional vectors. batch_shape=None,32 indicates batches of an arbitrary number of 32-dimensional vectors. |
None | |
数据类型 | dtype | str | 数据类型, The data type expected by the input, as a string (float32 , float64 , int32 ...) |
float32 | |
sparse | sparse | bool | sparse, A boolean specifying whether the placeholder to be created is sparse. | False | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Lambda层
Lambda层,实现将任意函数/表达式封装为Layer/层。
表名:dl_layer_lambda.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 函数 | function | code | 函数,求值函数,以输入张量作为参数 | [默认代码](javascript:void(0);) |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Masking层
屏蔽层。使用给定的值对输入的序列信号进行“屏蔽”,用以定位需要跳过的时间步。对于输入张量的时间步,即输入张量的第1维度(维度从0开始算,见例子),如果输入张量在该时间步上都等于mask_value,则该时间步将在模型接下来的所有层(只要支持masking)被跳过(屏蔽)。如果模型接下来的一些层不支持masking,却接受到masking过的数据,则抛出异常。
表名:dl_layer_masking.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | mask_value | mask_value | float | mask_value | 0.0 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Permute层
Permute层将输入的维度按照给定模式进行重排,例如,当需要将RNN和CNN网络连接时,可能会用到该层。
表名:dl_layer_permute.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | dims | dims | str | dims, 指定重排的模式,不包含样本数的维度。重拍模式的下标从1开始。例如 2,1 代表将输入的第二个维度重拍到输出的第一个维度,而将输入的第一个维度重排到第二个维度,用英文逗号(,)分隔的整数列表,例如 32,24 | *必填 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
RepeatVector层
RepeatVector层将输入重复n次。
表名:dl_layer_repeatvector.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 重复次数 | n | int | 重复次数 | *必填 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Reshape层
任意,但输入的shape必须固定。当使用该层为模型首层时,需要指定input_shape参数
表名:dl_layer_reshape.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | target_shape | target_shape | str | target_shape, 目标shape,不包含样本数目的维度(batch大小),用英文逗号(,)分隔的整数列表,例如 32,24,表示输入数据是一系列的 32x24的矩阵 | *必填 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
循环层
ConvLSTM2D层
ConvLSTM2D是一个LSTM网络,但它的输入变换和循环变换是通过卷积实现的
表名:dl_layer_convlstm2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 卷积核数目 | filters | int | 卷积核数目,filters,即输出的维度 | *必填 |
kernel_size | kernel_size | str | kernel_size,卷积核的空域或时域窗长度。整数列表,列表用英文逗号(,)分隔,例如 12,34 | *必填 | |
strides | strides | str | strides,卷积步长。当不等于1时,无法使用dilation功能,即dialation_rate必须为1。整数列表,列表用英文逗号(,)分隔,例如 12,34 | 1,1 | |
padding | padding | choice | padding,补0策略 | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
dilation_rate | dilation_rate | str | dilation_rate,指定dilated convolution中的膨胀比例。任何不为1的dilation_rate均与任何不为1的strides均不兼容。。整数列表,列表用英文逗号(,)分隔,例如 12,34 | 1,1 | |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
recurrent激活函数 | recurrent_activation | choice | recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 | hard_sigmoid | |
recurrent自定义激活函数 | user_recurrent_activation | code | recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
unit_forget_bias | unit_forget_bias | bool | unit_forget_bias,如果为, 初始化时在遗忘门的偏置项加1。设置为True,会强制使bias_initializer="Zeros" | True | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
return_sequences | return_sequences | bool | return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 | False | |
go_backwards | go_backwards | bool | go_backwards,默认为False,若为True,则逆向处理输入序列并返回逆序后的序列 | False | |
stateful | stateful | bool | stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 | False | |
dropout | dropout | float | dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 | 0.0 | |
recurrent_dropout | recurrent_dropout | float | recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 | 0.0 | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
CuDNNGRU层
基于CuDNN的快速GRU实现,只能在GPU上运行,只能使用tensoflow为后端
表名:dl_layer_cudnngru.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
return_sequences | return_sequences | bool | return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 | False | |
return_state | return_state | bool | return_state,是否在输出中返回最后状态 | False | |
stateful | stateful | bool | stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 | False | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
CuDNNLSTM层
Fast LSTM implementation backed by CuDNN.
表名:dl_layer_cudnnlstm.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
unit_forget_bias | unit_forget_bias | bool | unit_forget_bias,如果为, 初始化时在遗忘门的偏置项加1。设置为True,会强制使bias_initializer="Zeros" | True | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
return_sequences | return_sequences | bool | return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 | False | |
return_state | return_state | bool | return_state,是否在输出中返回最后状态 | False | |
stateful | stateful | bool | stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 | False | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
GRU层
门限循环单元。GRU(Gate Recurrent Unit)是循环神经网络(RNN)的一种。和LSTM一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的,但是计算效率更高。
参考文献 - On the Properties of Neural Machine Translation: Encoder–Decoder Approaches - Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling - A Theoretically Grounded Application of Dropout in Recurrent Neural Networks
表名:dl_layer_gru.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
dropout | dropout | float | dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 | 0.0 | |
recurrent_dropout | recurrent_dropout | float | recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 | 0.0 | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
return_sequences | return_sequences | bool | return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 | False | |
go_backwards | go_backwards | bool | go_backwards,默认为False,若为True,则逆向处理输入序列并返回逆序后的序列 | False | |
stateful | stateful | bool | stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 | False | |
unroll | unroll | bool | unroll,若为True,则循环层将被展开,否则就使用符号化的循环。当使用TensorFlow为后端时,循环网络本来就是展开的,因此该层不做任何事情。层展开会占用更多的内存,但会加速RNN的运算。层展开只适用于短序列。 | False | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
GRUCell层
GRU的Cell类
表名:dl_layer_grucell.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
recurrent激活函数 | recurrent_activation | choice | recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 | hard_sigmoid | |
recurrent自定义激活函数 | user_recurrent_activation | code | recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
dropout | dropout | float | dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 | 0.0 | |
recurrent_dropout | recurrent_dropout | float | recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 | 0.0 | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
LSTM层
LSTM层,长短期记忆模型,RNN的一种,可以解决梯度爆炸的问题。关于此算法的详情,请参考 教程 - Long short-term memory (original 1997 paper) - Learning to forget: Continual prediction with LSTM - Supervised sequence labeling with recurrent neural networks - A Theoretically Grounded Application of Dropout in Recurrent Neural Networks
表名:dl_layer_lstm.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
recurrent激活函数 | recurrent_activation | choice | recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 | hard_sigmoid | |
recurrent自定义激活函数 | user_recurrent_activation | code | recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
是否使用偏置项 | use_bias | bool | 是否使用偏置项,use_bias | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | Orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | Zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
unit_forget_bias | unit_forget_bias | bool | unit_forget_bias,Boolean. If True, add 1 to the bias of the forget gate at initialization. Setting it to true will also force bias_initializer="Zeros". This is recommended in Jozefowicz et al. | True | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
dropout | dropout | float | dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 | 0 | |
recurrent_dropout | recurrent_dropout | float | recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 | 0 | |
返回整个输出序列 | return_sequences | bool | 返回整个输出序列,若为True则返回整个序列,否则仅返回输出序列的最后一个输出 | False | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
层名 | name | str | 层名,名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
LSTMCell层
LSTM的Cell类
表名:dl_layer_lstmcell.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
recurrent激活函数 | recurrent_activation | choice | recurrent激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用recurrent自定义激活函数 | hard_sigmoid | |
recurrent自定义激活函数 | user_recurrent_activation | code | recurrent自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
unit_forget_bias | unit_forget_bias | bool | unit_forget_bias,如果为, 初始化时在遗忘门的偏置项加1。设置为True,会强制使bias_initializer="Zeros" | True | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
dropout | dropout | float | dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 | 0.0 | |
recurrent_dropout | recurrent_dropout | float | recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 | 0.0 | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
SimpleRNN层
全连接RNN网络,RNN的输出会被回馈到输入。
表名:dl_layer_simplernn.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
dropout | dropout | float | dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 | 0.0 | |
recurrent_dropout | recurrent_dropout | float | recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 | 0.0 | |
return_sequences | return_sequences | bool | return_sequences,默认False,控制返回类型。若为True则返回整个序列,否则仅返回输出序列的最后一个输出 | False | |
return_state | return_state | bool | return_state,是否在输出中返回最后状态 | False | |
go_backwards | go_backwards | bool | go_backwards,默认为False,若为True,则逆向处理输入序列并返回逆序后的序列 | False | |
stateful | stateful | bool | stateful,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态 | False | |
unroll | unroll | bool | unroll,若为True,则循环层将被展开,否则就使用符号化的循环。当使用TensorFlow为后端时,循环网络本来就是展开的,因此该层不做任何事情。层展开会占用更多的内存,但会加速RNN的运算。层展开只适用于短序列。 | False | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
SimpleRNNCell层
SinpleRNN的Cell类。
表名:dl_layer_simplernncell.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 输出空间维度 | units | int | 输出空间维度,units,正整数 | *必填 |
激活函数 | activation | choice | 激活函数,激活函数使用的是使用默认参数,如果需要修改参数,可以使用自定义激活函数 | tanh | |
自定义激活函数 | user_activation | code | 自定义激活函数,示例: def bigquant_run(x): import tensorflow as tf return tf.atan(x) | [默认代码](javascript:void(0);) | |
use_bias | use_bias | bool | use_bias,是否使用偏置项 | True | |
权值初始化方法 | kernel_initializer | choice | 权值初始化方法,kernel_initializer,使用的是使用默认参数 | glorot_uniform | |
自定义权值初始化方法 | user_kernel_initializer | code | 自定义权值初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
循环核初始化方法 | recurrent_initializer | choice | 循环核初始化方法,recurrent_initializer,使用的是使用默认参数 | orthogonal | |
自定义循环核初始化方法 | user_recurrent_initializer | code | 自定义循环核初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
偏置向量初始化方法 | bias_initializer | choice | 偏置向量初始化方法,bias_initializer,使用的是使用默认参数 | zeros | |
自定义偏置向量初始化方法 | user_bias_initializer | code | 自定义偏置向量初始化方法,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
权值正则项 | kernel_regularizer | choice | 权值正则项,kernel_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
权值正则项L1 | kernel_regularizer_l1 | float | 权值正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
权值正则项L2 | kernel_regularizer_l2 | float | 权值正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义权值正则项 | user_kernel_regularizer | code | 自定义权值正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
循环核正则项 | recurrent_regularizer | choice | 循环核正则项,recurrent_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
循环核正则项L1 | recurrent_regularizer_l1 | float | 循环核正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
循环核正则项L2 | recurrent_regularizer_l2 | float | 循环核正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义循环核正则项 | user_recurrent_regularizer | code | 自定义循环核正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
偏置向量正则项 | bias_regularizer | choice | 偏置向量正则项,bias_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
偏置向量正则项L1 | bias_regularizer_l1 | float | 偏置向量正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
偏置向量正则项L2 | bias_regularizer_l2 | float | 偏置向量正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义偏置向量正则项 | user_bias_regularizer | code | 自定义偏置向量正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
输出正则项 | activity_regularizer | choice | 输出正则项,activity_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
输出正则项L1 | activity_regularizer_l1 | float | 输出正则项L1,如果使用L1L2正则化,此参数有效 | 0 | |
输出正则项L2 | activity_regularizer_l2 | float | 输出正则项L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义输出正则项 | user_activity_regularizer | code | 自定义输出正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
权值约束项 | kernel_constraint | choice | 权值约束项,kernel_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义权值约束项 | user_kernel_constraint | code | 自定义权值约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
循环核约束项 | recurrent_constraint | choice | 循环核约束项,recurrent_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义循环核约束项 | user_recurrent_constraint | code | 自定义循环核约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
偏置向量约束项 | bias_constraint | choice | 偏置向量约束项,bias_constraint,在优化过程中为网络的参数施加约束 | None | |
自定义偏置向量约束项 | user_bias_constraint | code | 自定义偏置向量约束项,示例: def bigquant_run(w): from keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
dropout | dropout | float | dropout,0~1之间的浮点数,控制输入线性变换的神经元断开比例 | 0.0 | |
recurrent_dropout | recurrent_dropout | float | recurrent_dropout,0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例 | 0.0 | |
implementation | implementation | choice | implementation, 1或2,如果设为1,则RNN将以更多但更小的矩阵乘法实现,因此在CPU上运行更慢,在GPU上运行更快,并且消耗更少的内存。如果设为2,则RNN将以更少但是更大的矩阵乘法实现,因此在CPU上运行更快,但消耗更多的内存。 | 2 | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
StackedRNNCells层
这是一个wrapper,用于将多个recurrent cell包装起来,使其行为类型单个cell。该层用于实现高效的stacked RNN。
表名:dl_layer_stackedrnncells.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | RNN Cell | cell1 | 通用 | RNN Cell | *必填 |
RNN Cell | cell2 | 通用 | RNN Cell | None | |
RNN Cell | cell3 | 通用 | RNN Cell | None | |
RNN Cell | cell4 | 通用 | RNN Cell | None | |
输入 | inputs | 通用 | 输入 | None | |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
数据处理
序列窗口滚动(深度学习)
表名:dl_convert_to_bin.v2
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | DataSource数据 | input_data | 通用 | DataSource数据 | *必填 |
特征列表 | features | 通用 | 特征列表 | *必填 | |
输入参数 | 窗口大小 | window_size | int | 窗口大小,滚动窗口大小,1为不滚动,只用当前一行特征 | 1 |
特征裁剪值 | feature_clip | int | 特征裁剪值 | 5 | |
是否特征展开 | flatten | bool | 是否特征展开,如果为True是(window_size*feature_size,),False是(window_wize,feature_size) | True | |
分组滚动窗口 | window_along_col | str | 分组滚动窗口,按window_along_col字段分组窗口滚动 | instrument | |
输出端 | 输出 | data | 通用 | 输出 |
池化层
AveragePooling1D层
对时域1D信号进行平均值池化
表名:dl_layer_averagepooling1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 池化的窗口大小 | pool_size | int | 池化的窗口大小,窗口大小,pool_size,整数,池化 | 2 |
下采样因子 | strides | int | 下采样因子,strides,整数或None,例如设2将会使得输出shape为输入的一半,若为None则默认值为pool_size | None | |
padding | padding | choice | padding | valid | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
AveragePooling2D层
为空域信号施加平均值池化
表名:dl_layer_averagepooling2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | pool_size | pool_size | str | pool_size,代表在两个方向(竖直,水平)上的下采样因子,如取(2,2)将使图片在两个维度上均变为原长的一半。为整数意为各个维度值相同且为该数字。。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 | 2,2 |
步长 | strides | str | 步长,strides,步长值,如果不设置,默认是pool_size。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 | None | |
padding方式 | padding | choice | padding方式,padding,用于在卷积时保持边界信息。SAME方式,直接填充;VALID方式,直接计算输出 | valid | |
通道维位置 | data_format | choice | 通道维位置,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
AveragePooling3D层
为3D信号(空域或时空域)施加平均值池化
表名:dl_layer_averagepooling3d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | pool_size | pool_size | str | pool_size,代表在三个维度上的下采样因子,如取(2,2,2)将使信号在每个维度都变为原来的一半长。。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 | 2,2,2 |
步长 | strides | str | 步长,strides,步长值,如果不设置,默认是pool_size。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 | None | |
padding方式 | padding | choice | padding方式,padding,用于在卷积时保持边界信息。SAME方式,直接填充;VALID方式,直接计算输出 | valid | |
通道维位置 | data_format | choice | 通道维位置,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
GlobalAveragePooling1D层
为时域信号施加全局平均值池化
表名:dl_layer_globalaveragepooling1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
GlobalAveragePooling2D层
为空域信号施加全局最大值池化
表名:dl_layer_globalaveragepooling2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
GlobalMaxPooling1D层
对于时间信号的全局最大池化
表名:dl_layer_globalmaxpooling1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
GlobalMaxPooling2D层
为空域信号施加全局最大值池化
表名:dl_layer_globalmaxpooling2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
MaxPooling1D层
对时域1D信号进行最大值池化。
表名:dl_layer_maxpooling1d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 窗口大小 | pool_size | int | 窗口大小,pool_size,整数,池化 | 2 |
下采样因子 | strides | int | 下采样因子,strides,整数或None,例如设2将会使得输出shape为输入的一半,若为None则默认值为pool_size | None | |
padding | padding | choice | padding | valid | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
MaxPooling2D层
为空域信号施加最大值池化。
表名:dl_layer_maxpooling2d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | pool_size | pool_size | str | pool_size,代表在两个方向(竖直,水平)上的下采样因子,如取(2,2)将使图片在两个维度上均变为原长的一半。为整数意为各个维度值相同且为该数字。。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 | 2,2 |
步长 | strides | str | 步长,strides,步长值,如果不设置,默认是pool_size。长为 2 的整数列表,列表用英文逗号(,)分隔,例如 2,2 | None | |
padding | padding | choice | padding | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
MaxPooling3D层
为3D信号(空域或时空域)施加最大值池化。
表名:dl_layer_maxpooling3d.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | pool_size | pool_size | str | pool_size,代表在三个维度上的下采样因子,如取(2,2,2)将使信号在每个维度都变为原来的一半长。。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 | 2,2,2 |
步长 | strides | str | 步长,strides,步长值,如果不设置,默认是pool_size。长为 3 的整数列表,列表用英文逗号(,)分隔,例如 2,2,2 | None | |
padding | padding | choice | padding | valid | |
通道维位置 | data_format | choice | 通道维位置,data_format,代表图像的通道维的位置,该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。 | channels_last | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
融合层
Add层
属于融合层。属于融合层。该层接收一个列表的同shape张量,并返回它们的和,shape不变。
表名:dl_layer_add.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入1 | input1 | 通用 | 输入1 | *必填 |
输入2 | input2 | 通用 | 输入2 | *必填 | |
输入3 | input3 | 通用 | 输入3 | None | |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
Average层
属于融合层。属于融合层。该层接收一个列表的同shape张量,并返回它们的逐元素均值,shape不变。
表名:dl_layer_average.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入1 | input1 | 通用 | 输入1 | *必填 |
输入2 | input2 | 通用 | 输入2 | *必填 | |
输入3 | input3 | 通用 | 输入3 | None | |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
Concatenate层
该层接收一个列表的同shape张量,并返回它们的按照给定轴相接构成的向量。
表名:dl_layer_concatenate.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入1 | input1 | 通用 | 输入1 | *必填 |
输入2 | input2 | 通用 | 输入2 | *必填 | |
输入3 | input3 | 通用 | 输入3 | None | |
输入参数 | axis | axis | int | axis,想接的轴 | -1 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Dot层
点积层,属于融合层。计算两个tensor中样本的张量乘积。例如,如果两个张量a和b的shape都为(batch_size, n),则输出为形如(batch_size,1)的张量,结果张量每个batch的数据都是a[i,:]和b[i,:]的矩阵(向量)点积。
表名:dl_layer_dot.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入1 | input1 | 通用 | 输入1 | *必填 |
输入2 | input2 | 通用 | 输入2 | *必填 | |
输入参数 | axes | axes | str | axes,执行乘法的轴,用英文逗号(,)分隔的整数列表,例如 32,24 | *必填 |
normalize | normalize | bool | normalize,是否沿执行成绩的轴做L2规范化,如果设为True,那么乘积的输出是两个样本的余弦相似性。 | False | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
Maximum层
该层接收一个列表的同shape张量,并返回它们的逐元素最大值,shape不变。
表名:dl_layer_maximum.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入1 | input1 | 通用 | 输入1 | *必填 |
输入2 | input2 | 通用 | 输入2 | *必填 | |
输入3 | input3 | 通用 | 输入3 | None | |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
Multiply层
该层接收一个列表的同shape张量,并返回它们的逐元素积的张量,shape不变。
表名:dl_layer_multiply.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入1 | input1 | 通用 | 输入1 | *必填 |
输入2 | input2 | 通用 | 输入2 | *必填 | |
输入3 | input3 | 通用 | 输入3 | None | |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
Subtract层
该层接收两个同shape张量,并返回它们的逐元素差的张量,shape不变。
表名:dl_layer_subtract.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入1 | input1 | 通用 | 输入1 | *必填 |
输入2 | input2 | 通用 | 输入2 | *必填 | |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
规范层
BatchNormalization层
该层在每个batch上将前一层的激活值重新规范化,使其输出数据的均值接近0,其标准差接近1。
BN层的作用:加速收敛;控制过拟合,可以少用或不用Dropout和正则;降低网络对初始化权重不敏感;允许使用较大的学习率。
表名:dl_layer_batchnormalization.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 需要规范化的轴 | axis | int | 需要规范化的轴,axis,指定要规范化的轴,通常为特征轴。例如在进行data_format="channels_first的2D卷积后,一般会设axis=1 | -1 |
动量 | momentum | float | 动量,momentum,动态均值的动量 | 0.99 | |
epsilon | epsilon | float | epsilon,大于0的小浮点数,用于防止除0错误 | 0.001 | |
中心化 | center | bool | 中心化,center,若设为True,将会将beta作为偏置加上去,否则忽略参数beta | True | |
规范化 | scale | bool | 规范化,scale,若设为True,则会乘以gamma,否则不使用gamma。当下一层是线性的时,可以设False,因为scaling的操作将被下一层执行。 | True | |
beta初始化 | beta_initializer | choice | beta初始化,beta_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | zeros | |
自定义beta初始化 | user_beta_initializer | code | 自定义beta初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
gamma初始化 | gamma_initializer | choice | gamma初始化,gamma_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | ones | |
自定义gamma初始化 | user_gamma_initializer | code | 自定义gamma初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
moving_mean初始化 | moving_mean_initializer | choice | moving_mean初始化,moving_mean_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | zeros | |
自定义moving_mean初始化 | user_moving_mean_initializer | code | 自定义moving_mean初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
moving_variance初始化 | moving_variance_initializer | choice | moving_variance初始化,moving_variance_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | ones | |
自定义moving_variance初始化 | user_moving_variance_initializer | code | 自定义moving_variance初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
beta正则项 | beta_regularizer | choice | beta正则项,beta_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
beta正则项 L1 | beta_regularizer_l1 | float | beta正则项 L1,如果使用L1L2正则化,此参数有效 | 0 | |
beta正则项 L2 | beta_regularizer_l2 | float | beta正则项 L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义beta正则项 | user_beta_regularizer | code | 自定义beta正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
gamma正则项 | gamma_regularizer | choice | gamma正则项,gamma_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
gamma正则项 L1 | gamma_regularizer_l1 | float | gamma正则项 L1,如果使用L1L2正则化,此参数有效 | 0 | |
gamma正则项 L2 | gamma_regularizer_l2 | float | gamma正则项 L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义gamma正则项 | user_gamma_regularizer | code | 自定义gamma正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
beta约束项 | beta_constraint | choice | beta约束项,beta_constraint,在优化过程中为网络的参数施加约束。本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | None | |
自定义beta约束项 | user_beta_constraint | code | 自定义beta约束项,示例: def bigquant_run(w): from tensorflow.keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
gamma约束项 | gamma_constraint | choice | gamma约束项,gamma_constraint,在优化过程中为网络的参数施加约束。本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | None | |
自定义gamma约束项 | user_gamma_constraint | code | 自定义gamma约束项,示例: def bigquant_run(w): from tensorflow.keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
LayerNormalization层
LayerNormalization是对输出归一化的,消除各层的covariate shift,加快收敛速度。
表名:dl_layer_layernormalization.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None |
输出端 | 输出 | data | 通用 | 输出 |
高级激活层
ELU层
ELU层是指数线性单元(Exponential Linera Unit),表达式为: 该层为参数化的ReLU(Parametric ReLU),表达式是:f(x) = alpha * (exp(x) - 1.) for x < 0, f(x) = x for x>=0
表名:dl_layer_elu.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | alpha | alpha | float | alpha,scale for the negative factor,控制负因子的参数 | 1.0 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
LeakyReLU层
LeakyRelU是修正线性单元(Rectified Linear Unit,ReLU)的特殊版本,当不激活时,LeakyReLU仍然会有非零输出值,从而获得一个小梯度,避免ReLU可能出现的神经元“死亡”现象。即,f(x)=alpha * x for x < 0, f(x) = x for x>=0
表名:dl_layer_leakyrelu.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | alpha | alpha | float | alpha,Negative slope coefficient,代表激活函数图像中第三象限线段的斜率 | 0.3 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
PReLU层
该层为参数化的ReLU(Parametric ReLU),表达式是:f(x) = alpha * x for x < 0, f(x) = x for x>=0,此处的alpha为一个与xshape相同的可学习的参数向量。
表名:dl_layer_prelu.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | alpha初始化 | alpha_initializer | choice | alpha初始化,alpha_initializer,本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | zeros |
自定义alpha初始化 | user_alpha_initializer | code | 自定义alpha初始化,示例: def bigquant_run(shape, dtype=None): import tensorflow.keras.backend as K return K.random_normal(shape, dtype=dtype) | [默认代码](javascript:void(0);) | |
alpha正则项 | alpha_regularizer | choice | alpha正则项,alpha_regularizer,如果使用L1L2,可配置如下L1,L2参数 | None | |
alpha正则项 L1 | alpha_regularizer_l1 | float | alpha正则项 L1,如果使用L1L2正则化,此参数有效 | 0 | |
alpha正则项 L2 | alpha_regularizer_l2 | float | alpha正则项 L2,如果使用L1L2正则化,此参数有效 | 0 | |
自定义alpha正则项 | user_alpha_regularizer | code | 自定义alpha正则项,示例: def bigquant_run(weight_matrix): import tensorflow.keras.backend as K return 0.01 * K.sum(K.abs(weight_matrix)) | [默认代码](javascript:void(0);) | |
alpha约束项 | alpha_constraint | choice | alpha约束项,alpha_constraint,在优化过程中为网络的参数施加约束。本选项里的函数使用的是默认参数,如果需要使用自定义参数或者其他函数,可以选择自定义,然后在下面输入自定义函数 | None | |
自定义alpha约束项 | user_alpha_constraint | code | 自定义alpha约束项,示例: def bigquant_run(w): from tensorflow.keras.constraints import max_norm return max_norm(2.)(w) | [默认代码](javascript:void(0);) | |
共享轴 | shared_axes | str | 共享轴,shared_axes,该参数指定的轴将共享同一组科学系参数,例如假如输入特征图是从2D卷积过来的,具有形如(batch, height, width, channels)这样的shape,则或许你会希望在空域共享参数,这样每个filter就只有一组参数,设定shared_axes=[1,2]可完成该目标。整数列表,列表用英文逗号(,)分隔,例如 12,34 | None | |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
ThresholdedReLU层
该层是带有门限的ReLU,表达式是:f(x) = x for x > theta,f(x) = 0 otherwise。
表名:dl_layer_thresholdedrelu.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | theta | theta | float | theta,Threshold location of activation,激活门限位置 | 1.0 |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
自定义层
自定义层
对于简单的定制操作,我们或许可以通过使用layers.core.Lambda层来完成。但对于任何具有可训练权重的定制层,你应该自己来实现。
这里是一个层应该具有的框架结构,要定制自己的层,你需要实现下面三个方法: - build(input_shape):这是定义权重的方法,可训练的权应该在这里被加入列表`self.trainable_weights中。其他的属性还包括self.non_trainabe_weights(列表)和self.updates(需要更新的形如(tensor, new_tensor)的tuple的列表)。你可以参考BatchNormalization层的实现来学习如何使用上面两个属性。这个方法必须设置self.built = True,可通过调用super([layer],self).build()实现 - call(x):这是定义层功能的方法,除非你希望你写的层支持masking,否则你只需要关心call的第一个参数:输入张量 - compute_output_shape(input_shape):如果你的层修改了输入数据的shape,你应该在这里指定shape变化的方法,这个函数使得Keras可以做自动shape推断
表名:dl_layer_userlayer.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 输入 | inputs | 通用 | 输入 | None |
输入参数 | 用户层定义 | layer_class | code | 用户层定义 | [默认代码](javascript:void(0);) |
名字 | name | str | 名字, name, 可选,层的名字,在模型里不能有两个层同名。如果不指定,将自动分配名字 | None | |
输出端 | 输出 | data | 通用 | 输出 |
模型评估
分类-评估
分类评估。输入模型结果,输出评估结果:精准率-召回率曲线、ROC-AUC、常用指标、准确率与错误率、混淆矩阵。
表名:metrics_classification.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 预测结果 | predictions | 通用 | 预测结果,提供模型预测出的分类及分类对应概率 | *必填 |
输出端 | 评估报告 | data | 通用 | 评估报告 |
回归-评估
回归评估。输入模型结果,输出对于回归的评估结果。具体评估标准包括R2,MSE,MAE等。
表名:metrics_regression.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 预测结果 | predictions | 通用 | 预测结果,提供模型预测出的分类及分类对应概率 | None |
输入参数 | 可解释方差权重 | explained_variance_score | bool | 可解释方差权重, | True |
平均绝对误差 | mean_absolute_error | bool | 平均绝对误差 | True | |
均方误差权重 | mean_squared_error | bool | 均方误差权重 | True | |
均方对数误差权重 | mean_squared_log_error | bool | 均方对数误差权重 | True | |
均方绝对误差 | median_absolute_error | bool | 均方绝对误差 | True | |
确定系数(r^2)权重 | r2_score | bool | 确定系数(r^2)权重,列表类型 | True | |
输出端 | 评估报告 | report | 通用 | 评估报告 |
\