不错哦,能跑tensorflow

策略分享
标签: #<Tag:0x00007fc0705aba58>

(coyote) #1

不知道后台服务器是啥性能呢?有GPU没 哈
优矿、米筐说的支持,实际都跑不了tensorflow,这里不错哦,现在跑的什么版本?
正在学习中,后期神经元会用的比较多,有没有什么限制?

下面这是网上入门例子,大家可以跑跑。

克隆策略
In [2]:
import tensorflow as tf
import numpy as np

# 使用 NumPy 生成假数据(phony data), 总共 100 个点.
x_data = np.float32(np.random.rand(2, 100)) # 随机输入
y_data = np.dot([0.100, 0.200], x_data) + 0.300

# 构造一个线性模型
#
b = tf.Variable(tf.zeros([1]))
W = tf.Variable(tf.random_uniform([1, 2], -1.0, 1.0))
y = tf.matmul(W, x_data) + b

# 最小化方差
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)

# 初始化变量
init = tf.global_variables_initializer()

# 启动图 (graph)
sess = tf.Session()
sess.run(init)

# 拟合平面
for step in range(0, 201):
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(W), sess.run(b))

# 得到最佳拟合结果 W: [[0.100  0.200]], b: [0.300]
0 [[ 0.19100496  0.0896599 ]] [ 0.68804383]
20 [[ 0.08288735  0.14769311]] [ 0.33627257]
40 [[ 0.09410559  0.18831405]] [ 0.30925551]
60 [[ 0.0980873   0.19738001]] [ 0.30240393]
80 [[ 0.0994011   0.19940998]] [ 0.30063489]
100 [[ 0.09981677  0.19986638]] [ 0.30017027]
120 [[ 0.0999448   0.19996952]] [ 0.30004629]
140 [[ 0.09998356  0.199993  ]] [ 0.30001274]
160 [[ 0.09999513  0.19999838]] [ 0.30000356]
180 [[ 0.09999856  0.19999962]] [ 0.30000097]
200 [[ 0.09999958  0.19999993]] [ 0.30000028]

(小Q) #2

您好。

  • 未来为保证性能,我们会支持GPU
  • 机器学习、深度学习模块我们都是最新版本,若有升级,我们会及时跟进
  • 目前每个账户内存为16G,若实验受限,可单独申请

(tglszh1) #3

不知道有没支持gpu的量化平台


(小Q) #4

平台后面会支持的