了长时间的对话后得出了这

就是这种情况,尤其是 LaMDA,这款谷歌软件被自己的程序员 Blake Lemoine 认为是“有感知能力的”。 Lemoine——一个具有非常特殊灵性的人物——在与机器进行个结论全部转录在Medium上。乍一看,这种对话类似于人类之间发生的对话,但仔细阅读后,会发现其中突出的细节强调了 LaMDA 中实际上不存在任何形式的自我意识。 LaMDA 没有意识到的最明显迹象之一是,当被问到“什么让你快乐?”时,勒穆瓦本人对他说:“与朋友和家人共度时光”。

朋友们?家庭?并花时间

做什么? 在  上,有人实际上建议 Blake Lemoine问 LaMDA“谁是你的家人”,或者无论如何更好地解释他这句话的意思这些行为可能会阻止 LaMDA 通过这种反向图灵测试,在这种测试中我们已经知道我们正在与一台机器打交道,但仍然试图确定 BC 数据欧洲 意识的存在。 作为一个明显没有朋友和家人的软件,这种反应实际上代表了 LaMDA 只是模仿人类行为,没有任何自我意识的明确证明。 LaMDA 通过极端综合,学会了将数十亿与人类之间对话相关的数据以统计方式拼接在一起,从而模仿他们的声音。

 如果我们给他们不同的

BC 数据欧洲

训练怎么办? 这是一个基本要素。正如 Neural 时事通讯的作者 Tristan Greene 所写,“如果我们为 LaMDA 提供一个仅由社交媒体帖子组成的数据库,其输出将与我们在这些地方找到的内容类似。如果我们专门在 My Mini Pony 维基页面上训练 LaMDA,我们得到的结果将是我们可以在那里找到的文本类型。” 简而言之,不存在任何形式的自主性:一切都完全取决于用于训练的数据类型。

 因此,经过仔细分析这些方

面将阻止当今现有的所有智能系统通过 获取此系统可用性量表调查模 图灵测试。然而,这又引发了另一个问题:机器通过图灵测试就足以宣称它具有智能吗?包括约翰·塞尔John Searle他在这方面创造了著名的“中国房间”心理实验在内的一些哲学家 博茨瓦纳 电话号码 认为,答案是否定的:机器能够模拟智能行为这一事实并不意味着它是真正的智能。 神经科学家 Joel Frohlich 在Nautilus 上发表的一篇长文中深入研究了这一方面,他写道:“在我看来,我们应该认真考虑智能只有在自发地提出与主观体验相关的问题时才有意识的可能性”。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注