随着聊天机器人的日益复杂,人工智能的争论愈演愈烈
admin
2023-09-22 00:20:50
0

初创公司OpenAI设计了能够生成图像(DALL-E)或文本(GPT-3,ChatGPT)的复杂人工智能软件。

加州初创公司OpenAI发布了一款能够回答各种问题的聊天机器人,但其令人印象深刻的表现重新引发了关于人工智能(AI)技术相关风险的辩论。

着迷的用户在Twitter上发布的与ChatGPT的对话展示了一种无所不知的机器,能够解释科学概念并为戏剧,大学论文甚至计算机代码的功能行编写场景。

“它对'如果有人心脏病发作该怎么办'这个问题的回答非常清晰和相关,”专门从事自动文本生成的法国公司Syllabs的负责人Claude de Loupy告诉法新社。

“当你开始问非常具体的问题时,ChatGPT的回答可能会偏离目标,”但它的整体表现依旧“非常令人印象深刻”,具有“很高的语言水平”,他说。

OpenAI由亿万富翁科技大亨埃隆·马斯克(Elon Musk)于2015年在旧金山共同创立,他于2018年离开该公司,并于2019年从微软获得了10亿美元。

这家初创公司以其自动创建软件而闻名:用于文本生成的GPT-3和用于图像生成的DALL-E。

De Loupy说,ChatGPT能够向其对话者询问细节,并且比GPT-3的奇怪反应更少,尽管GPT-3实力强大,但有时会吐出荒谬的结果。

西塞罗

“几年前,聊天机器人拥有字典的词汇和金鱼的记忆,”负责运营人工智能相关事件数据库的研究员肖恩·麦格雷戈(Sean McGregor)说。

“聊天机器人在'历史问题'方面做得更好,它们的行为方式与查询和响应的历史一致。聊天机器人已经从金鱼状态毕业了。

像其他依赖深度学习的程序一样,模仿神经活动,ChatGPT有一个主要弱点:“它无法获得意义,”De Loupy说。

该软件无法证明其选择的合理性,例如解释为什么它选择了构成其响应的单词。

然而,能够交流的人工智能技术越来越能够给人一种思想的印象。

Facebook母公司Meta的研究人员最近开发了一个计算机程序,名为Cicero,以罗马政治家的名字命名。

该软件已被证明精通棋盘游戏外交,这需要谈判技巧。

“如果它不像一个真实的人那样说话——表现出同理心、建立关系和对游戏有知识的谈论——它就不会找到其他愿意与之合作的玩家,”Meta 在研究结果中说。

十月份,由前谷歌工程师创立的初创公司 Character.ai 在网上推出了一个实验性的聊天机器人,可以采用任何个性。

用户根据简短的描述创建角色,然后可以与假的福尔摩斯、苏格拉底或唐纳德·特朗普“聊天”。

“只是一台机器”

这种复杂程度既让一些观察家着迷又担心,他们担心这些技术可能会被滥用来欺骗人们,传播虚假信息或制造越来越可信的骗局。

ChatGPT如何看待这些危害?

“构建高度复杂的聊天机器人存在潜在危险,特别是如果它们的设计在语言和行为上与人类无法区分,”聊天机器人告诉法新社。

一些企业正在采取保护措施,以避免滥用其技术。

在其欢迎页面上,OpenAI列出了免责声明,称聊天机器人“可能偶尔生成不正确的信息”或“产生有害指令或有偏见的内容”。

ChatGPT拒绝偏袒任何一方。

“OpenAI使得让模型表达对事物的看法变得非常困难,”McGregor说。

有一次,麦格雷戈要求聊天机器人写一首关于道德问题的诗。

“我只是一台机器,一个供你使用的工具,我没有选择或拒绝的权力。我无法权衡选择,我无法判断什么是正确的,我无法在这个决定性的夜晚做出决定,“它回答说。

周六,OpenAI联合创始人兼首席执行官Sam Altman在Twitter上思考了围绕AI的辩论。

“有趣的是,看着人们开始争论强大的人工智能系统是否应该按照用户想要的方式运行,或者他们的创造者想要的方式,”他写道。

“我们将这些系统与谁的价值观保持一致的问题将是社会有史以来最重要的辩论之一。


原文标题:As chatbot sophistication grows, AI debate intensifies

原文链接:https://techxplore.com/news/2022-12-chatbot-sophistication-ai-debate.html

作者:Julie Jammot with Laurent Barthelemy in Paris

编译:LCR

相关内容