Meta 首席 AI 科学家:AI 还不如狗聪明,不会接管世界

Meta 首席 AI 科学家:AI 还不如狗聪明,不会接管世界
2023年06月26日 17:00 极客时间

作者 | Sambodhi、凌敏

毫无疑问,当前的 AI 仍存在一定的局限性。

AI 还不如狗聪明?

近日,META 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。

杨立昆表示,当前的人工智能系统智力水平不及人类,甚至还不如一条狗聪明。“这些系统仍然非常有限,它们对真实世界的底层现实没有任何理解,因为它们纯粹是基于大量的文本训练的。” “人类知识的大部分与语言无关……所以,人工智能并没有涵盖人类经验的那一部分。”

杨立昆补充说,现在一种人工智能系统可以通过美国的律师资格考试,也就是成为律师所必需的考试。然而,他说人工智能无法装载洗碗机,而一个 10 岁的孩子可以在 “10 分钟内学会”。

杨立昆表示,Meta 正在致力于训练人工智能从视频中学习,而不仅仅是从语言中学习,这是一项更具挑战性的任务。

在另一个当前人工智能局限性的例子中,杨立昆举例称一个 5 个月大的婴儿看到一个漂浮的物体,并不会想太多。然而,一个 9 个月大的婴儿看到这个物体会感到惊讶,因为它意识到物体不应该漂浮。

杨立昆表示,我们“不知道如何在今天用机器来复制这种能力。在我们能做到这一点之前,机器不会有人类水平的智能,也不会有狗或猫的智能水平。”

还有必要将 AI 视作威胁吗?

人工智能的快速发展引发了部分技术人士的担忧,有人认为,如果不加以控制,这项技术可能对社会构成危险。特斯拉首席执行官 马斯克 更是表示,人工智能是 “对文明未来最大的风险之一”。

前段时间,人工智能安全中心(CAIS)发布了一份由 OpenAI 及 DeepMind 高管、图灵奖获得者及其他 AI 研究人员签署的简短声明,警告称他们的毕生成果可能会毁灭全人类。声明内容只有一句:“应该像对待包括流行病和核战争等其他全球性迫切社会问题一样,缓解 AI 引发的 灭绝性风险。”CAIS 表示,这份声明希望讨论“AI 所带来的广泛且紧迫的风险”。

在声明上签字的名人包括图灵奖获得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科学家 Ilya Sutskever、OpenAI 首席技术官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。

在 Viva Tech 大会上,法国经济学家和社会理论家 Jacques Attali 在谈到相关话题时也对 AI 风险表示担忧,Attali 认为,AI 的利弊取决于其使用方式。

“如果你使用人工智能来开发更多化石燃料,那将是可怕的。如果你使用人工智能来开发更多可怕的武器,那也将是可怕的,”Attali 说,“相反,人工智能对于健康、教育和文化可能是令人惊人的。”

Attali 对未来持悲观态度,他说:“众所周知,人类在未来三到四十年面临许多危险。”他指出气候灾难和战争是他最担心的问题之一,还提到他担心机器人 “会对我们进行反叛”。

而杨立昆则有不同的观点,杨立昆的态度比较乐观,他认为将来会有比人类更聪明的机器,这不应被视为一种威胁。“我们不应该把这视为一种威胁,我们应该把这视为一种非常有益的事情。每个人都将拥有一个比自己更聪明的人工智能助手……它将像一个员工一样,在你的日常生活中为你提供帮助,”杨立昆说道。

杨立昆补充说,这些人工智能系统需要被创建为“可控制的,基本上服从人类”。他还驳斥了机器人会接管世界的观点。“科幻小说中流行的一个恐惧是,如果机器人比我们聪明,它们将想要接管世界……聪明与是否想要接管之间没有关联,”

参考链接:

https://www.cnbc.com/2023/06/15/ai-is-not-even-at-dog-level-intelligence-yet-meta-ai-chief.html

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部