。
我们的技术团队在3.0版本实现绕过了英伟达cuda,使用了更底层的编程语言做优化,意味着3.0版本的智能体模型有能力使用其它gpu在汇编层面进行优化,从而摆脱对cuda和英伟达的依赖。
3.0版本的最大亮点之一,就是对模型训练成本的指数级下降。
在我们的内部测试中,3.0版本的小镜部署仅仅用了1024块gpu训练一个月的时间,费50万元人民币,但性能就已经比肩cyera-ai最先进的版本,简单算下来,其成本甚至只有竞品的0.75%。
最重要的是,这一切都是开源的,任何个人或任何机构,都可以随便用、免费用,也无需经过灵镜科技的同意。
3.0版本的强大超乎想象,我无法在微博里一一概述,大家自己上手试试就知道了,毕竟开源免费了。】
……
无论是开源,还是绕过了cuda,对于ai圈子绝对堪称是核弹级别的超重磅事件。
所谓的cuda是英伟达的一个高级gpu编程语言,类似于cpu所使用的c++、java,好处是语义语法上更接近人类语言,弊端是运行效率有损耗。
而ai小镜3.0版本,萧宇选择绕开了cuda,采用了更接近机器的底层语言ptx,并且直接在ptx层面彻底做好了编程优化。
此前的ptx语言,优点是运行效率很高,但对人类理解很不友好,所以程序员都使用cuda编程,这也是英伟达最重要的护城河之一。
萧宇把ptx语言的痛点解决了,直接摆脱了对cuda和英伟达的依赖,可以让ai小镜3.0版本模型可以有效利用任何gpu。
阿镁立卡现在不是连阉割版的h20芯片都禁售么,这下是无所谓了,市面上又不是只有n卡。
灵镜科技突然在这个时候放出这么一个核弹级别的大招,整个ai圈子都彻夜难眠了。
……
(本章完)