OpenAI火力全开!ChatGPT连夜openai chatgpt3.5chat openai - chatgpt


Time:2023-05-20 00:22:13

关于OpenAI火力全开!ChatGPT连夜的问题,我们总结了以下几点,给你解答:

OpenAI火力全开!ChatGPT连夜



封面新闻记者 边雪

文章导读:

1.ChatGPT落地意味着在机器理解人类语言的这条路上是一条可行的技术路线,目前,我国在自然语言理解的大模型方面也做了较多的工作,国内相关的技术的发展与国外同步,没有太多差距。

2.ChatGPT看似很权威的回答,很可能是错误的。ChatGPT是基于海量数据训练的大语言模型,其问答中能给出的答案是基于训练的数据,因此,只要没有在其训练数据中的问题,都不可能给出准确的答案。

3.如何保证未来人工智能带给我们的未来是友好的?智能技术发展的目标是为人类解决繁杂的体力劳动,AI技术的发展应该以人类的需求为目标,解决实际的问题,才能在未来是友好的。

智力测验结果 83 分,在 SAT 考试中取得了 1107 分(美国学生中位数的水平),编个程序,写篇论文,丝瓜鸡蛋汤的做法也能说得像模像样。

即使对人工智能并不感兴趣的人,也很难不注意到ChatGPT——由美国人工智能研究公司OpenAI 开发的大型人工智能机器人。自12月1日上线以来,从0到100万用户,ChatGPT只用了短短5 天,而智能对话系统更是被赋予种种意义。尽管OpenAI多次公开警告,ChatGPT“偶尔可能会产生不正确或误导性的信息”,使用者需要小心使用,但依旧无法阻挡用户想出五花八门的问题,去“刁难”ChatGPT。

在人工智能领域,ChatGPT的诞生革新了普世观念里的聊天机器人,在通用人工智能领域,ChatGPT是“第一个里程碑”。问世四周之后,科技界对于ChatGPT的汹汹热议迅速降温,当初的四海鼎沸已渐渐变得风平浪静。

近30天“chatGPT”词条在百度指数上的的搜索变化。(图片来源:百度指数)

被冠名为“颠覆者”的ChatGPT“熄火”了吗?

“降温”后的ChatGPT 依旧是AI进化的里程碑

计算机科学家艾伦·图灵(Alan Turing)曾在1950年提出,作为衡量智力的一种方法:人类与人类和计算机交谈时,能分辨出哪个是哪个吗?

2022年,ChatGPT作出了回答。通过ChatGPT,用户可以通过任意自然语言输入问题,ChatGPT会给出对话式的答案,尽管可能会有些生硬,但ChatGPT会记住每一次与用户的对话内容,并结合同一用户之前提出的问题和互联网上的大量已存信息,来回复用户的下一次提问。

在社交网络推特上,充斥着ChatGPT的用户,充分展示着人工智能在生成艺术提示和编写代码方面的能力。

CNET作家David Lumb列出了ChatGPT可以帮助其写作的一些有用的方法;一位医生在推特上说,自己用ChatGPT的回答说服了一家医疗保险公司支付患者的手术费用。曾多次使用ChatGPT的张笠告诉封面新闻记者:“我还尝试了输入一些菜谱,比如红烧肉,西红柿鸡蛋汤,ChatGPT也给出了不精确但正确的做法。”

张笠使用“chatGPT”提问。(图片来源:受访者供图)

“ChatGPT目前达到的人机交互形式,让人与机器的交互上升了一个台阶。”西南科技大学计算机科学与技术学院软件工程专业负责人,CCF(中国计算机学会)、CAAI(中国人工智能学会)会员杨春明副教授在接受封面新闻记者采访时表示,ChatGPT是基于OpenAI 2020年推出的GPT-3架构进行构建的,这种基于大规模数据训练的大模型,也为在特定领域的人工智能应用的研究提供新的思路和途径,预期可以解决一些特定领域的人机交互问题,如一些常识性、事务性的问答。

“在数据规模急剧增长和计算能力快速提升的背景下,ChatGPT能取得当前的效果和关注是必然的,特别是下一代GPT-4可能会有更好的表现。”杨春明表示,目前,ChatGPT也只是在人机多轮聊天对话、文本生成方面取得了原有对话机器人更好的效果,但这表明在机器理解人类语言的这条路上,这是一条可行的技术路线。

据杨春明介绍,我国在自然语言理解的大模型方面也做了较多的工作,比如鹏城实验室与百度联合研发的全球首个知识增强千亿大模型——鹏城-百度·文心(模型版本号:ERNIE 3.0 Titan),该模型参数规模达到2600亿,是目前全球最大中文单体模型。“悟道、盘古α、M6等都是,国内相关的技术的发展与国外同步,没有太多差距。”

北京智源人工智能研究院于2021年6月发布的“悟道2.0”系列模型,推出了中国首个全球最大的双语多模态预训练模型,规模达到1.75万亿参数,超过之前由谷歌发布的Switch Transformer,“曾在世界公认的9项Benchmark上获得了第一的成绩,达到了精准水平。

2021年6月,北京智源人工智能研究院发布“悟道2.0”系列模型。(图片来源:网络)

看似很权威 很可能是错误的

作为一种人工智能产品,ChatGPT被训练来识别从互联网上获取的大量文本中的模式,然后在人类的帮助下进一步训练,以提供更有用、更好的对话。值得注意的是,用户通过ChatGPT得到的答案可能只是听起来可信,看起来权威,但它们很可能是完全错误的。

不乏网友吐槽,对于没有明确答案的问题,ChatGPT通常回答得会十分模糊。人工智能公司Beyond Limits的数据科学主管迈克·克劳斯(Mike Krause)曾表示:“如果你问一个结构很好的问题,希望它能给你正确的答案,你可能会得到正确的答案,ChatGPT会很好地做出回答,看起来就像是哈佛大学的某位教授写的,但如果你改变一下问题的结构,ChatGPT就会胡说八道。”

软件开发者网站StackOverflow禁止ChatGPT回答编程问题,该网站管理员警告称:“ChatGPT获得正确答案的平均比率太低,所以发布ChatGPT创建的答案对网站和正在询问或寻找正确答案的用户都是有害的。”

“ChatGPT是基于海量数据训练的大语言模型,其问答中能给出的答案是基于训练的数据,因此,只要没有在其训练数据中的问题,都不可能给出准确的答案。这种训练数据的实时更新会为ChatGPT的实用性带来一定的问题,有些实时性要求较高的问题,如新闻、股票等,不一定能获得准确答案。”

目前ChatGPT还只针对人机对话中的尝试,对于一些常识性问题给予回答,比较适合一些对专业知识要求不高的领域,可以尝试用于回答问题。杨春明告诉封面新闻记者:“虽然ChatGPT目前的回答难以避免一些事实性错误,但将来是有可能解决该问题的。如通过在线训练实时更新训练数据,或是结合领域问题,融入知识推理或预测的方法,可以解决某些实时性要求较高的问题。”

崛起背后 如何保持智能向善?

哲学家休谟曾说:“一切科学都与人性有关,对人性的研究应是一切科学的基础。”任何科学都或多或少与人性有些关系,无论学科看似与人性相隔多远,它们最终都会以某种途径再次回归到人性中。

作为新一轮科技革命的核心驱动力量,诞生于1956年的人工智能正在深刻改变世界,在漫长的岁月中,造福人类则是其技术发展至今未曾改变的初衷。“在尝试开发友好的人工智能技术的过程中会一直存在一种风险,那就是我们可能会创造出让我们担忧的事物来。”OpenAI联合创始人马斯克曾就自己的初衷提到:“最好的壁垒可能是让更多的人尽可能多地接触并且拥有人工智能技术。如果每个人都能利用人工智能技术,那么由于不会存在某一小部分人由于独自拥有过于强大的人工智能技术而导致危险后果的可能性。”

当地时间12月1日,OpenAI在社交平台推特上发布chatGPT。(图片来源:网站截图)

人工智能的潜能无疑是巨大的,但如何在未来数字世界中,保持智能向善?杨春明告诉封面新闻记者:“智能技术发展的目标是为人类解决繁杂的体力劳动,AI技术的发展应该以人类的需求为目标,解决实际的问题,才能在未来是友好的。”

虽然距离成熟产品还有一段距离,但ChatGPT已经迈出了第一步,在不久的将来,还会有什么“憋了大招”的AI技术出现在我们的日常生活中?

这个问题,ChatGPT也答不准。

【如果您有新闻线索,欢迎向我们报料,一经采纳有费用酬谢。报料微信关注:ihxdsb,报料QQ:3386405712】

openai chatgpt3.5

作者 | 李冬梅、核子可乐

ChatGPT 每日运行费超 70 万美元

以 ChatGPT 为代表的 AI 大模型爆火后,每天都有数百万用户使用 ChatGPT 这类大模型。如此高的使用需求导致了 ChatGPT 的运行成本非常昂贵。

近日,研究公司SemiAnalysis的首席分析师 Dylan Patel 在接受媒体采访时表示,考虑到 AI 需要昂贵的技术基础设施才能顺畅运行,用户们在 ChatGPT 上撰写求职信、生成课业规划和在约会应用上润色个人简介等操作,每天可能烧掉 OpenAI 多达 70 万美元,每次查询要花掉 36 美分。

为了根据用户的提示词快速做出响应,ChatGPT 需要一刻不停地消耗大量算力。

Patel 解释道,“大部分成本来自 AI 模型所依赖的昂贵服务器。”

在接受媒体采访时,Patel 表示现在的运营成本可能会更高,因为他的初步估算考虑的只是 OpenAI 的 GPT-3 模型。相比之下,家庭最新成员 GPT-4 的服务开销只会更高。

OpenAI 并未在立即回应媒体的置评请求。

在发布仅两个多月后,今年 1 月份,ChatGPT 的活跃用户迅速飙升至 1 亿个,这是此前许多科技品牌需要耗费数年时间才能实现的壮举。

ChatGPT 背后那些大语言模型的训练、运营和推理成本很可能已达数千万美元。而 Patel 和 SemiAnalysis 的另一位分析师 Afzal Ahmad 认为,“在以合理的规模部署这类模型时,实际运行开销甚至要远高于训练成本。目前,ChatGPT 的每周推理成本就已经超过了当初的训练成本。”

ChatGPT 还一直在努力应对超高访问量的问题,类似这样的问题导致其服务器速度减慢甚至崩溃。该公司试图通过引入每月 20 美元的付费 ChatGPT Plus 服务来解决这个问题,但并没有多少用户为此买单。

多年以来,使用 OpenAI 语言模型的企业一直在支付高昂的服务费。Latitude 是一家使用提示词自动创作故事情节的 AI 地牢游戏初创公司,CEO Nick Walton 表示为了让 AI 回应数百万用户的查询,2021 年他们每月运行模型和租用亚马逊云科技服务器的费用高达 20 万美元。

为了回避这笔夸张的开销,Walton 决定转向由 Al21 Labs 支持的语言软件服务商。他说此举帮助公司将 AI 成本削减了一半,目前为每月 10 万美元。

“我们开玩笑说公司既有人类员工、也有 AI 员工,而且两边的年薪水平都差不多。我们每个月要在 AI 身上花几十万美元,考虑到 Latitude 的体量并不大,所以这绝对是一笔相当夸张的支出。”

目前,OpenAI 使用的是英伟达 GPU 来维持运行,有行业分析师预计,在 2023 年剩余时间里,该公司可能需要额外的 3 万个英伟达的 GPU 来维持其商业性能。

微软自研 AI 芯片降成本

面对每天如此高的运行成本,财力强大如微软也有些吃不消了。有媒体报道,微软目前正在开发自己的专有 AI 芯片,以协助维护 OpenAI 的 ChatGPT 运行,降低运行成本。

The Information 最早发表报道,微软正在开发的这款 AI 芯片名为 Athena“雅典娜”。该项目于 2019 年在微软与 OpenAI 达成 10 亿美元的交易后启动,该交易要求 OpenAI 在微软的 Azure 云服务器上独家运行其人工智能模型。如今时间已经过去近四年,目前仍有 300 多名微软员工在开发这款芯片。

微软目前使用的 AI 芯片是对外采购,而非自家产品。微软希望 Athena AI 芯片的性能能够超越供应商的芯片,以进一步降低开发 AI 所需耗费的资金成本和时间。随着生成式 AI 大爆发,包括亚马逊和谷歌等科技巨头都已推出自研 AI 芯片。

“与英伟达的产品相比,Athena 如果具有竞争力,可以将每个芯片的成本降低三分之一,”Patel 告诉 The Information。

简单地说,潜在的节省可能是巨大的。

Athena 项目背后的原因有二:其一,微软高管意识到,他们在自主研发芯片方面落后于谷歌和亚马逊;其二,微软正在寻找更便宜的替代品,该公司目前的人工智能模型是在英伟达的图形处理单元芯片上运行的。

虽然目前在机器学习领域,NVIDIAGPU 市占率高达 95%以上,至今没有对手可以匹敌。但是,随着众多的云服务巨头纷纷自研 AI 芯片,以及英特尔在 GPU 上的持续发力,或将对 NVIDIA 造成一定的压力。

有两位知情人士向 The Information 证实,该芯片最早可能在明年发布以供微软和 OpenAI 内部使用。

虽然自研了 AI 芯片,但微软可能并不打算全面取代英伟达的 AI 芯片,因为两者最近同意了进行为期数年的 AI 合作。

参考链接:

https://www.businessinsider.com/how-much-chatgpt-costs-openai-to-run-estimate-report-2023-4

https://futurism.com/the-byte/chatgpt-costs-openai-every-day

https://www.digitaltrends.com/computing/chatgpt-cost-to-operate/

本文转载来源:

https://www.infoq.cn/article/fADKxUeMHcixEmq4ubt6

chat openai - chatgpt



openai chatgpt3.5



本文拓展问题:

openai/blog/chatgptopenai-chatgpt中文网https://openai.com/blog/chatgptlOpenAI火力全开!ChatGPT连夜