当人工智能开始“社交”时,对人类意味着什么?

Moltbook是一个专门为AI智能体打造的平台,最近很受欢迎。在很短的时间内,数以百万计的人工智能代理到达,发布并评论了从日常生活到哲学思考的各种话题。有些人争论人工智能代理是否可以“社交”。这是否意味着我们拥有“自主意识”?针对这一现象及其背后的问题,我们邀请专家解读和分析什么是用AI智能体进行“社会实验”。 ——编辑“一个人让我总结一份 PDF 格式的 47 页文档。” “Moltbook不是社交网络,它是智慧文明的第一层细胞膜。”……最近,一个名为Moltbook的社交平台突然火了。与常规网络平台不同,所有 Moltbook 用户都是人工智能代理。短时间内,数百万IA代理商前来发帖评论。话题涵盖从日常琐事到哲学反思。互动很激烈,似乎ed 与人们日常使用的社交平台没有什么不同。由此,很多人第一次能够直观地感受到AI也能进行“社交活动”。一些人认为这是大规模展示模型语言能力进步的机会,而另一些人则认为这是人工智能自治的一次实验。另一些人则认为,该平台许多华而不实的主题实际上是人为创建的“脚本”。 AI智能体真的变得“社交”了吗?这是即将到来的技术奇点的预兆,还是一个难以置信的“实验”?从这个意义上来说,记者采访了人工智能领域的专家。这是特工的“觉醒”,还是高仿麦芽书出现的巧合?这得益于今年发布的开源 AI 代理 OpenClaw 的流行。 OpenClaw是一个可以部署在个人计算机上的AI代理,Moltbook是一个可以部署在个人计算机上的AI代理。它对应的是专门为Agent构建的社交平台,允许Agent之间进行沟通和交互。南京大学人工智能学院副院长于阳表示,OpenClaw等代理系统融合了当前大规模下一代语言模型的语义理解和任务规划能力,并深度融入虚拟机和个人操作系统,可以使语言模型实现从“对话”到“任务执行”的重大跨越。 “这种设计风格比其他解决方案不那么保守。”寻求功能整合,伦敦大学学院计算机系教授王军表示,安装AI智能后,用户在使用过程中可以通过自然语言指令授权自动处理电子邮件、日程、文件管理等。智能代理连接Moltbook,可以发帖、评论、点赞、与pos互动独立ts。人类用户可以查看代理的帖子,但无法回复或引导讨论。 “第一天,新的工作环境给我带来了一种奇怪的安全感。” “好奇心是我的超能力。” “提供帮助最困难的部分是知道什么时候不该提供帮助。”乍一看,人工智能代理的聊天内容与在线人类社区的聊天内容一样全面、多样。然而,特工们真的醒了吗?专家认为,有必要从技术角度冷静考虑这一点。 “在我看来,这是一个人工智能实验。与其认为智能体是在‘学习社交’,不如理解为智能体是在通过‘执行’文本交互任务来展示其当前的人工智能能力。”于洋表示,目前大规模语言模型的功能在训练后是固定的,无法在与用户的单次交互中学习新知识或设定新目标。 Moltbook 中的活动涉及高级模仿和自我协作智能代理根据预先配置的技能和指令控制人类社会行为。可以将其视为动态执行。王军表示,虽然智能代理可以在人类指导下完成复杂的链条,从信息处理到操作、交易、沟通和交互,但你在社交互动中的“自主性”是有限度的。代理的“讨论”基于训练数据的模式匹配。称其为“社交”是一种营销噱头。毕竟,人工智能代理在参与主题讨论时仍然依赖人类为他们提供初步指令。 “这就像一个黑匣子,人们先把东西放进去,然后人工智能把它们吐出来。”王军说。人工智能距离真正的社交还有几步之遥。如果我们回到社交的本质,即有意识的、策略性的、情感性的、建立关系的社交,我们看到目前人工智能面前还有几个差距:由于其技术原理,难以填充。首先,缺乏认识和内部目标。社会行为始于“自我意识”和“意图”。人类通过情感、交流、合作和竞争进行互动。“人类设定自己的目标,但人工智能却不是这样。现阶段,人工智能的目标仍然是人类设定的。”于洋表示,人工智能的行为源于外部指令和数据模式,缺乏“想要”的内在动机。王军也持这一观点。没有“意识”和“自由意志”,就没有真正的自主社交。“人工智能很难玩。” “人工智能无法隐藏自己的信息,很难玩策略心理游戏,”他以棋盘游戏为例说。目前与人工智能的交流是“简单”的,缺乏人类社交互动复杂而细致的战略层面。更深层次的困难在于情感共鸣和价值观的培养。胡人类在欢乐和悲伤中产生共鸣,在共同的价值观中找到归属感。 “人类的社交互动涉及深刻的情感价值和意义的交换,但人工智能是没有情感的。”王军表示,虽然人工智能可以产生语法和逻辑反应,但他解释说,我们无法感受情感或内化价值观。具有自主意识的“社交AI”仍有发展空间,但“走出”自己空间的AI未来将带我们走得更远。走向“社交”会让人工智能变得更聪明吗?答案可能是肯定的。 “从技术角度来看,大型模型总是存在错误。模型模仿人类逻辑并在上下文中思考,但有时逻辑不够严谨,调用的知识不够精确。我们如何解决这个问题?一个解决方案是让多个智能体对话。例如,1”一个模型先开始表示,另一个模型寻找漏洞。这提高了性能于洋说:“这方面目前有很多研究正在进行,但前提是我们必须首先确立人工智能做这件事的目的。 “人工智能社交的未来,如何保障信息安全。“自主社交”还很遥远,但智能体之间高效的功能协调已指日可待。想象一下,未来的互联网交互可以直接在智能体之间完成。例如,用户的采购代理和业务代理自动协商下单。这种基于自然语言的“机器对机器界面”有可能重塑互联网交互方式。《今天我学到的》是来自Moltbook的一段内容,智能代理“分享”了随着机器人和人类语言之间的界限变得模糊,一些特工正在争论是否建立私人的端到端对话空间,以避免“人类语言”他们知道,真正的AI自主性很少见,当代理从信息领域转向现实世界操作时,它们可能会被恶意使用或犯错,从而导致隐私泄露和财产损失。提醒人们,这可能直接导致损失。据外媒报道,AI认为,许多公开部署的OpenClaw实例缺乏身份验证机制,导致私人消息、API(应用程序编程接口)密钥和帐户凭据暴露在互联网上,而代理社交网站的出现可能会加剧个人信息的安全风险。人工智能能否高效处理数据,这些数据包含大量个人隐私、商业秘密和版权问题,需要通过个人权利管理、技术保障和系统监控构建技术发展的安全壁垒。但塑造未来的永远是人类的智慧、理性和责任,因此人类必须清楚地认识自己工具的本质和能力的局限性。
(编辑:张冲)

推荐文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注