本文作者:访客

黄仁勋、扎克伯格「与子同袍」

访客 2024-08-01 15:05:52 56063 抢沙发

北京时间7月30日,在美国丹佛举行的SiGGRAPH2024(2024年国际计算机图形与交互技术顶会)上,美国科技公司Meta的CEO扎克伯格与芯片巨头英伟达CEO黄仁勋交流后,交换了外套。

黄仁勋、扎克伯格「与子同袍」

扎克伯格为黄仁勋定制了一件黑色皮衣外套,黄仁勋则将对话前才穿上身的标志皮夹克脱下来送给了扎克伯格。

这不是两人*次互换外套,今年3月,扎克伯格曾在社交媒体上分享了他与黄仁勋的合影,照片中的他们就互换了外套,微笑着站在一起。

扎克伯格此番参加SiGGRAPH2024,是受黄仁勋邀请。此前一周,美国当地时间7月23日,Meta发布了新版语言大模型Llama3.1,分别有8B(80亿)、70B(700亿)、405B(4050亿)三个参数版本,其中“顶配”的性能被Meta称为可与OpenAI的ChatGPT-4o、谷歌的Gemini 1.5 Pro以及亚马逊投资的Anthropic推出的Claude3.5 Sonnet等头部的闭源大模型媲美。

公开资料显示,Llama3.1使用了超16000个英伟达的H100 GPU芯片进行训练。

就在这一开源大模型发布当天,英伟达也推出了AI Foundry服务器和NIM推理微服务,并宣布与Meta的Llama3.1一起服务支持全球企业的生成式AI。

在两家企业的合作进一步深入之余,作为掌舵人的黄仁勋和扎克伯格也在SiGGRAPH2024上展开对话,他们共同讨论了开源大模型以及AI应用的未来发展方向等话题。

一直在海外投资人工智能等科技项目的陈沛分析,微软、谷歌、亚马逊这三家具有云计算业务的厂商,在购买大量英伟达GPU芯片的同时,都在积极推进云端算力和芯片自研,以降低对英伟达的依赖,这些大客户与英伟达是边合作边竞争的关系。相较而言,Meta的自研算力进度要比上述几家慢很多。

陈沛看到,近期Meta公开释放消息称,要搭建更大规模的算力基础,要再购买35万个H100。英伟达会与这一大客户保持紧密互动并不让人意外。

黄仁勋不仅对Meta的开源大模型策略予以称赞,他也同意扎克伯格所呼吁的大模型应开源化发展的路线,“就像我身上穿的皮衣,我不愿意自己去制作,而是希望有人为我制作,那么这些皮革材料就需要开源,大家都能来使用它”。

在Llama3.1发布后,扎克伯格曾在社交媒体发文称,这一大模型有望成为采用开源AI的转折点。如今在与黄仁勋的对话中,他表示,开源AI模型技术将成为AI时代下打败闭源模型的重要动力。他梦想有一天,Facebook或Instagram整个平台就像一个单一的AI模型,能将所有不同的内容类型和系统整合在一起。

对话中,扎克伯格还提及了苹果iOS生态系统对自家软件Facebook的限制,他指出Llama大模型正是打破封闭,基于开源技术的系统架构,制造不同的硬件设备,进而将生态系统打造成开放的水平,以迎接下一代计算竞赛。

为表明开源在推动AI发展中的重要性,扎克伯格还强调,要在未来10年或15年里,确保Meta能够建立开源AI的基础技术。

黄仁勋提到了Meta在计算机视觉、语言模型和实时翻译等多方面的进展,称“我们都在使用Meta开发的PyTorch(Facebook2016年发布的一个开源深度学习框架)”。

不过在Meta押注VR(虚拟现实技术)应用,英伟达与之合作的同时,黄仁勋觉得AI下一波浪潮的应用方向会是机器人,尤其是人形机器人,并且正在推进整个英伟达机器人堆栈的发展,面向全球人形机器人开发者和公司开放访问。

英伟达还在SiGGRAPH2024上推出了包括用于机器人仿真和学习的NIM微服务和框架以及支持AI和仿真的远程操作工作流等一整套产品,目的便是为全球的机器人制造商、AI模型开发者和软件制造商提供服务、模型和计算平台,让他们开发、训练和构建下一代人形机器人。

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,56063人围观)参与讨论

还没有评论,来说两句吧...