技术|人工智能利器,一堆GPU组成超级服务器

关注:360     发表时间:2017-04-05 13:48:19

       为进一步加速神经网络的训练,Facebook宣布将推出新一代 GPU 服务器Big Basin。新一代的服务器其实是2015年 Facebook 推出的 Big Sur 服务器的升级版,并且同样都会在 Open Computer Project 平台上进行开源。



  无论人工智能还是机器学习,它们出现在人们面前的形象常常是算法和代码,而服务器则是背后“看得见摸得着”的那一部分。Big Sur 一直是 Facebook 发展人工智能的利器,其强大的计算能力为Facebook语言技术和图像技术提供支持。这次的硬件升级将存储量从12G提升到16G,模型训练量能够再提升30%,同时在进行神经网络训练时,其训练速度能比 Big Sur 高出一倍。


  与 NVIDIA 的 DGX-1 架构非常相似,Big Basin由8个NVIDIA Tesla P100 GPU (搭载 NVLink技术的 Tesla P100加速器)加速器组成,这些GPU们由 NVIDIA NVLink 连接在一起组成了一个盒子。这个服务器也被公司成为JBOG ( Just a Bunch of GPUs )—— 一堆GPU,这一大堆GPU的能量就意味着足够为机器学习提供支持


  不像无人车和机器人,Facebook 本身的社交平台属性弱化了人工智能技术的外露特征,让很多用户感受不到人工智能的冲击力,但其实我们日常使用的很多Facebook 服务无一不是人工智能在背后发生作用:语音识别、语音文字转换、图像的分类和识别,Big Basin 和它的前身 Big Sur 就是实现这些服务的重要支撑。


版权所有 Copyright © 2009-2029,www.chip-link.com  深圳市芯友联科技所有限公司 

工信部备案号:粤ICP备17045257号-1