同城58网 软件 人工智能和你聊天 成本有多高

人工智能和你聊天 成本有多高

图片来源 视觉中国

中青报·中青网记者 袁 野

人工智能每次和你聊天,它背后的公司都会赔钱。

美国《华盛顿邮报》报道称,以ChatGPT为代表的大型语言模型的运维成本非常高,以至于推出它们的公司不愿向公众提供最好的版本。美国马里兰大学计算机科学教授汤姆·戈尔茨坦说:“目前正在部署的模型,看起来令人印象深刻,但并不是最好的。”他认为,如果完全不考虑成本因素,那么人工智能广遭诟病的缺点,比如倾向于给出有偏见的结果甚至撒谎,都是可以避免的。

人工智能需要密集的计算能力,这就是为什么ChatGPT的开发商OpenAI公司在其免费版中只运行能力较弱的GPT-3.5模型。即使是那些每月支付20美元使用GPT-4高级模型的用户,每3个小时也只能发送25条信息。背后的原因就是运营成本太高。

去年12月,ChatGPT发布后不久,OpenAI首席执行官萨姆·阿特曼估计其“每次聊天可能只需几美分”。这听起来似乎不贵,但考虑到其日活用户超过1000万人,整体成本依然高得吓人。今年2月,有研究机构称,即使只运行GPT-3.5,ChatGPT每天在计算方面的成本依然高达70万美元。

《华盛顿邮报》称,成本问题可能也是谷歌尚未在其搜索引擎中加入人工智能聊天机器人的原因之一,该搜索引擎每天要处理数百亿次查询。美国一家行业研究公司的首席分析师迪伦·帕特尔估计,对运维者来说,客户与ChatGPT进行一次聊天的成本,可能是进行一次谷歌搜索的1000倍。

人工智能的成本甚至惊动了白宫。英国路透社称,在最近发布的一份关于人工智能的报告中,拜登政府指出,生成式人工智能的计算成本是个“全国性问题”。白宫表示,这项技术预计将“大幅拉升计算需求和相关的环境影响”,“迫切需要”设计更可持续的系统。

路透社称,与其他形式的机器学习相比,生成式人工智能尤其依赖令人眼花缭乱的计算能力和专用计算机芯片,只有实力雄厚的公司才负担得起。5月,萨姆·阿特曼在出席美国国会参议院听证会时表示,“事实上,我们的芯片(GPU)非常短缺,所以,使用我们产品的人越少越好。”

5月23日,埃隆·马斯克在《华尔街日报》举办的峰会上表示,“目前,GPU比药物更抢手。”最近,马斯克为自己的人工智能初创公司购买了大约1万块GPU。

令人瞩目的新技术烧钱,对科技行业而言并非新鲜事。《华盛顿邮报》称,硅谷之所以能够主导互联网经济,部分原因就是它向全世界免费提供在线搜索、电子邮件和社交媒体等服务,这些业务起初都是亏损的,但后来,这些公司通过个性化广告获得了巨额利润。人工智能产业可能也会如法炮制,但分析人士表示,单靠广告可能不足以让尖端人工智能工具在短期内盈利。

因此,为消费者提供人工智能模型的公司必须在赢得市场份额的渴望与令人头痛的财务损失之间取得平衡。

《华盛顿邮报》指出,即使人工智能能够挣到钱,利润可能也会流向云计算巨头,以及运行模型所需硬件的芯片制造商。目前,开发出领先的人工智能语言模型的公司要么是最大的云计算提供商(如谷歌和微软),要么与它们有密切的合作关系(如OpenAI),这并非偶然。

对消费者来说,不受限制地使用强大的人工智能模型的日子,或许已经屈指可数。

路透社称,微软已开始尝试在人工智能搜索结果中植入广告。在听证会上,OpenAI的阿特曼表示不排除采取同样的做法,尽管他更喜欢付费订阅模式。两家公司都表示,相信人工智能有朝一日能够盈利。“它的价值如此之大,我无法想象……如何在它上面敲响收银机。”今年2月,阿特曼在接受媒体采访时表示。

本文来自网络,不代表本站立场,转载请注明出处:https://www.tcw58.com/n/a83961.html

成本,ChatGPT,公司,模型,人工智能,芯片,OpenAI,原因,搜索引擎,阿特曼,萨姆·阿特曼,华盛顿邮报,模型,人工智能

同城58网后续将为您提供丰富、全面的关于成本,ChatGPT,公司,模型,人工智能,芯片,OpenAI,原因,搜索引擎,阿特曼,萨姆·阿特曼,华盛顿邮报,模型,人工智能内容,让您第一时间了解到关于成本,ChatGPT,公司,模型,人工智能,芯片,OpenAI,原因,搜索引擎,阿特曼,萨姆·阿特曼,华盛顿邮报,模型,人工智能的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。