问答交流

Transformer模板策略报错问题,优化函数应该如何设置?

由yangosngxs创建,最终由small_q 被浏览 7 用户

拷贝的训练营的策略,之前可以跑,现在跑不了了。

策略链接:

https://bigquant.com/wiki/doc/-zCgXuhm72a


报错提示:

--> 351 m33 = M.cached.v3( 352 input_1=m2.data, 353 input_2=m32.data,

<ipython-input-2-a70fc4bd659b> in m33_run_bigquant_run(input_1, input_2, input_3) 16 from bigmodels.models.transformer import Transformer 17 model = Transformer(input_dim=98, embed_dim=256, nhead=8, num_layers=6, dropout=0.1) ---> 18 model.compile(device="cpu") 19 model.fit(x_train, y_train, val_data=(x_val, y_val), batch_size=2048, epochs=10, verbose=1, num_workers=2) 20

ValueError: optimizer function should't be none.


我记得之前是可以跑的,这几天跑不了。

自己设置优化函数的话,要设置啥?


\

标签

Transformer函数
评论
  • 这样设置: 可能是之前的python包换版本了,一些接口也 变了。 也可以设置为gpu训练: device = torch.device("cuda:0") 单个epoch约4分钟 [https://bigquant.com/experimentshare/e41cd6f4eac74bc08339a0c49b50da50](https://bigquant.com/experimentshare/e41cd6f4eac74bc08339a0c49b50da50) \
{link}