人工智能应该有“意识”吗?这是一个错误的问题
编者按:人工智能技术的快速发展,它会具备人类意识吗?它应该具备人类意识吗?成了人们讨论的话题。但在丹尼尔·丹尼特(Daniel C. Dennett)看来,人工智能会具备人类意识,是一个错误的问题。这一观点来自他今年出版的《Possible Minds: Twenty-Five Ways of Looking at AI》一书,丹尼尔·丹尼特是塔夫茨大学的Austin B.Fletcher哲学教授、认知研究中心的共同主任。文章发表在《连线》杂志,标题为“Will AI Achieve Consciousness? Wrong Question”。
1950年,当“控制论之父”诺伯特·维纳(Norbert Wiener)在撰写《人有人的用处》(The Human Use of Human Beings)一书时,真空管仍然是主要的电子构件,而且只有几台真正的计算机在运行。
但是,他对未来(也就是我们现在)的想象,细节令人印象深刻,几乎没有明显的错误。
他比任何其他早期人工智能哲学家都更清楚地认识到,人工智能不仅会在许多智能活动中模仿和取代人类,而且还会在这个过程中改变人类。
他写道:“我们不过是一条不断流动的河流中的漩涡。我们不是一成不变的存在,而是模式的自我延续。”
例如,当有吸引力的机会比比皆是时,我们往往愿意付出一点点代价,并接受一些小的,甚至是微不足道的商业成本,以获得新的权力。
很快,我们就变得非常依赖于我们的新工具,以至于我们失去了在没有它们的情况下茁壮成长的能力。进而,选择就会成为强制性的了。
这是一个古老的故事,在进化史上有许多著名的场景。
大多数哺乳动物,可以合成自己的维生素 C,但是灵长类动物选择了以水果为主的饮食,失去了这一天生的能力。
我们称之为人类的自我延续模式,现在依赖于衣服、熟食、维生素、疫苗、信用卡、智能手机和互联网。即使不是今天,也是明天,还要添加上人工智能。
维纳预见到了这种初期状态存在的几个问题,而艾伦·图灵(Alan Turing)和其他早期对人工智能持乐观态度的人,基本上忽视了这些问题。
他说,真正的危险在于:
尽管这些机器本身是无能为力的,但它们可能被一个人或一群人用来加强对其他种族的控制。
政治领导人可能不是通过机器本身,而是通过狭隘和漠视人类可能性的政治手段,试图控制他们的人口,就好像他们实际上是被机械地构想出来的一样。
果然,这些危险现在无处不在。
例如,在媒体领域,在发烧友和电影爱好者眼中,数字音频和视频的创新,让我们为放弃模拟格式付出了一小部分代价,而作为回报,我们可以轻而易举地以近乎完美的保真度再现录音。
但是有一个巨大的隐藏成本。奥威尔的“真理部”(乔治·奥威尔的小说《一九八四》中,专门制造假新闻的部门)现在有了切实可行的可能性。
人工智能技术创造了几乎无法察觉的伪造品,这将使过去150年来,我们认为理所当然的调查工具变得过时。
我们是简单地放弃短暂的摄影证据时代,回到人类记忆和信任提供黄金标准的早期世界,还是会在真理的军备竞赛中开发新的防御和进攻技术?
我们可以想象回到模拟胶片曝光,保存在“防篡改”系统中,直到向陪审团展示等等。但是,在有人想出用怀疑的方式感染这样的系统之前,还需要多长时间呢?
从最近的经历中得到的一个令人不安的教训是,破坏信誉的任务比保护这种信誉的任务要简单得多。
维纳从最普遍的角度看待了这一现象:“从长远来看,武装我们自己和武装我们的敌人没有区别。”信息时代也是虚假信息时代。
我们能做什么?在我看来,一个关键的短语,是维纳未经核实的观察,如上,“这些机器”是“无能为力的”。
正如我最近一直在争论的那样,我们正在制造工具,而不是同事,最大的危险是没有意识到这种差异,我们应该努力强调这种差异,通过政治和法律创新来强调这种差异,并为之辩护。
人工智能目前的表现形式,是寄生在人类智力上的。
它不分青红皂白地吞噬人类创造者创造的任何东西,并从中提取出可以在那里找到的模式——包括一些有害的习惯。
这些机器(还)没有自我批评和创新的目标、策略或能力,无法通过反思自己的想法和目标来超越数据库。
正如维纳所说,它们是中立的,不是被束缚的智能体或残缺的智能体,而是根本不是智能体——没有能力被呈现给它们的“理性所感动”(正如康德所说)。 重要的是我们要保持这种状态,这需要做一些事情。
从长远来看,“强人工智能”或通用人工智能原则上是可能的,但不可取的(下面有更多介绍)。
今天实际上可能出现的更受约束的人工智能,不一定是邪恶的。但是它也带来了一系列的危险——主要是它可能会被误认为是强大的人工智能!
二、
版权保护: 本文由 沃派博客-沃派网 编辑,转载请保留链接: http://www.bdice.cn/html/41614.html