人工智能哲学的历史概述
许多技术哲学界的名人都试图理解技术的本质,并将其与社会和人类经验联系起来。在20世纪上半叶,他们的分析结果主要表明技术与人类生活之间存在分歧。
技术被视为一种自主的力量,它压垮了人类的基本部分。通过将技术的概念归结为历史和先验假设,哲学家们似乎从特定事件的影响中抽象出来。
人工智能的主观性哲学
在八十年代,基于美国哲学家的思想,发展了一种更具经验性的技术观点,他们将特定技术的影响整合到他们的观点中(Achterhuis,H.J.,“Van Stoommachine tot cyborg;Denken over techniek in de Nieuwe wereld“,1997 年)。技术与社会的相互依存关系是本研究的主题。这种“经验转向”使得解释技术的多功能性及其在社会中可以发挥的许多作用成为可能。这种方法在技术哲学家中得到了进一步发展,例如在特温特大学。
人工智能于 1956 年被确立为一个研究领域。它关注计算机中的智能行为。研究目的可分为四类:
- 像人类一样思考的系统。
- 理性思考的系统。
- 像人类一样行动的系统。
- 理性行动的系统。
经过多年对完成这些任务的能力持乐观态度,该领域在如何表示可能在应用中有用的智能方面面临挑战。这些包括缺乏基础知识、计算的复杂性以及知识表示结构的局限性(Russell, S & Norvig, “Artificial Intelligence: A Modern Approach”, Peter, 2009)。但挑战不仅来自设计界。自柏拉图时代以来一直关注心灵和推理的哲学家也开始抱怨。他们利用数学上的反对意见(基于图灵和哥德尔)和关于人类智能本质的更多哲学论证,试图展示人工智能项目的内部局限性。其中最著名的是休伯特·德雷福斯(Hubert Dreyfus)。
休伯特·德雷福斯(Hubert Dreyfus)谈人工智能
德雷福斯将人工智能的目标和方法视为一种明确的理性主义智能观。纵观历史,许多理性主义哲学家都为这一点辩护,但德雷福斯本人更像是 20 世纪反理性主义哲学的支持者,这可以从海德格尔、梅洛-庞蒂和维特根斯坦的著作中看出。根据德雷福斯的说法,最基本的认知方式是直觉,而不是理性。在某个领域获得经验后,一个人只有在第一次学习论证时才会依附于正式的规则。在那之后,智力更有可能由经验规则和直觉决策来表示。
人工智能的理性方法可以清楚地追溯到所谓的符号人工智能的基础。智能过程被视为信息处理的一种形式,这些信息的表示是符号性的。因此,智能或多或少仅限于符号的操纵。德雷福斯将其分析为三个基本假设的组合:
- 一种心理学假设,即人类智能是基于符号操纵规则的。
- 认识论的假设是,所有的知识都是形式化的。
- 一个本体论的假设是,现实有一个形式化的结构。
德雷福斯不仅批评了这些假设,还定义了一些他认为对智力至关重要的概念。根据德雷福斯的说法,智能是体现和定位的。该实施例很难解释,因为尚不清楚这是否意味着智能需要身体,或者它是否只能在身体的帮助下发展。但至少很明显,德雷福斯认为智力取决于智力主体所处的情况,以及元素与其上下文的有意义的关系。这防止了现实被简化为正式的实体。德雷福斯的观点使得在明确定义的形式区域之外操纵符号的机器的操作变得不可能。
德雷福斯对人工智能的联结主义方法持更积极的态度。这种方法看到智能行为从类似于人脑神经元及其连接的建模结构中出现。但他怀疑,在这种机器中,人脑的复杂性是否可能实现。
因此,德雷福斯发起了关于人工智能目标可行性的讨论。他的作品引起了很多关注,并引发了激烈的争论。他甚至设法让一些研究人员改变他们的观点,并开始实施更符合他愿景的系统。德雷福斯展示了符号人工智能的假设,并澄清说,这些假设将导致真正的智能机器(Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer)并不明显。
但是,应该提出两点意见。首先,德雷福斯的批评基于严格的符号人工智能方法。近几十年来,已经多次尝试创建更多的混合智能系统,并在符号人工智能中实现非基于规则的方法。这些系统提出了一种不同的智能观点,德雷福斯的分析无法完全解释。其次,德雷福斯的批评似乎是基于对人工智能的怀疑态度,部分原因是他自己的哲学背景,部分原因是基础是在热情几乎无限的时代建立的。
自由意志是一个奇怪的概念。哲学可以通过多种方式讨论人类的思想,但是当涉及到我们是否自由做出决定的问题时,讨论就变得危险了。我们非常熟悉从意志、决定和行动的角度思考,以至于我们大多拒绝考虑我们在选择上不自由的可能性。但还有别的东西。如果我在这样的讨论中说人类根本没有自由意志呢?如果它是假的,我就错了,如果它是真的,那么整句话就失去了意义,因为我只能说出来。否定自由意志是一种务实的矛盾。你不能否认一个人的自由意志,而不使这种否认变得毫无意义。
然而,自由意志的问题似乎是相关的,因为科学理论可以声称发生的一切都遵循自然法则。因此,如果我们不想成为确定的有机机器,我们要么需要赋予人们特殊的属性,要么否认自然法则是确定的。第一种选择与许多哲学理论有关,但最重要的是与笛卡尔的理论有关,笛卡尔将世界分为两种物质(精神和物质),它们在人类中是相连的。第二种选择开辟了一个更全面的视野,它利用物理学的最新发展(相对论、量子力学)来表明我们的自由意志可以基于自然界不可预测的动态。
笛卡尔和其他人的二元论观点否认人类以外的事物存在自由意志。因此,关于自由意志和智能机器的讨论并不是特别有趣。另一方面,整体观点更适合这样的讨论,但除了将自由意志属性分配给人类或计算机所需的物理假设之外,很难得出任何其他结论。这在纯粹的哲学讨论中可能是合适的,但与计算机科学关系不大。
还有一种可能性是认识到人性本质上是矛盾的,因为决定论和自由意志的观点都是合理和必要的。这种辩证的方法使我们能够思考人类的自由意志,而不必担心物理预设。自由意志成为人类的超然前提。然而,这种方法中自由意志的先验观点不允许在智能机器等特定人工制品中讨论自由意志,因为不可能对先验预设进行建模或设计。在本节中,我将把自由意志的复杂概念转化为可用于分析智能机器的概念。这个概念应该与技术哲学中的实证方法相容。因此,我们应该避免从物理或先验的前提的角度来谈论自由意志的概念,而应该关注这个概念在社会中扮演的角色。
我在本文中的方法提示可以在介绍性段落中找到。我对自由意志辩论的看法是,在这个领域的任何研究都有两种根本不同的方法。第一个侧重于自由意志的本质和人们避免自然“要求”的能力的深刻哲学问题。我称之为物理方法。在关于智能机器的文章中,这导致了一场哲学辩论,这场辩论的重点是人类的本质,而不是计算机的本质,因为我们陷入了一种无论如何都必须捍卫自己的意志并谈论计算机的境地,因为我们只是想写一篇关于它的文章。換句話說,討論變成了人類和電腦之間的比較,其中人類和電腦都無法認識自己。
本节第一段中巧妙地提出了另一种方法,侧重于否认我们自己的自由意志的不可能性。如前所述,这种否认是没有意义的。但它不仅贬低了自己,还破坏了整个责任的基础。这意味着我们不能因为人们的言行而赞美或责备他们,因此我们必须重新考虑管辖权、工作、友谊、爱情以及我们建立社会的一切原则。所有这些社会问题都需要选择,而每当涉及到选择时,自由意志的概念都是必不可少的。其本质是,自由意志是我们社会的重要假设,无论它在物理上是否合理。我称之为社会方法。
自由意志的推定是否只对我们的社会或任何人类社会是必要的,这是一个难题。无论如何,我都会研究这个问题,因为它可能为自由意志的重要性提供更哲学的理由,而不是简单地指出我们自己社会的结构。如果不重新考虑人性,从而重新引入自由意志的物理方法,似乎就不可能回答这个问题。但是,当我们说互动是人类文明的核心时,对自由意志概念的需求自然而然地产生了。如果不假设他们可以自由地影响互动的过程,我们就无法与人互动,因为任何人类互动都意味着我们事先不知道结果。因此,互动的特征是选择,因此是自由意志的概念。如果互动在任何社会中都是基本的,那么我们还必须声明,在任何社会中都不能否认自由意志。
人工智能哲学的不同方法
符号人工智能 (AI) 是 AI 的一个子领域,专注于处理和操作符号或概念,而不是数字数据。符号人工智能的目的是通过表示和操纵基于逻辑规则的知识和推理,创建可以像人类一样推理和思考的智能系统。
符号人工智能的算法通过处理表示世界中的对象或概念及其连接的符号来工作。符号人工智能的主要方法是使用逻辑编程,其中规则和公理用于得出结论。 例如,我们有一个符号人工智能系统,旨在根据患者报告的症状诊断疾病。该系统有一套规则和公理,用于得出有关患者病情的结论。
例如,如果患者报告发烧,系统可能会应用以下规则:如果患者发烧,咳嗽,呼吸困难,那么患者可能患有肺炎。
然后系统会检查患者是否也有咳嗽和呼吸困难,如果有,它会得出结论,患者可能患有肺炎。
这种方法非常容易解释,因为我们可以很容易地将推理过程追溯到所应用的逻辑规则。当新信息可用时,它还可以轻松更改和更新系统规则。
符号 AI 使用形式语言(如逻辑)来表示知识。这些知识由使用算法操纵符号的推理机制处理。这允许创建专家系统和决策支持系统,这些系统和决策支持系统可以根据预定义的规则和知识得出结论。
符号人工智能不同于其他人工智能方法,如机器学习和深度学习,因为它不需要大量的训练数据。相反,符号人工智能是基于知识表示和推理的,这使得它更适合于知识被明确定义并可以用逻辑规则表示的领域。
另一方面,机器学习需要大型数据集来学习模式并做出预测。深度学习使用神经网络直接从数据中学习特征,这使其适用于具有复杂和非结构化数据的领域。
这取决于应用每种技术的主题领域和可用数据。符号人工智能适用于具有明确定义和结构化知识的领域,而机器学习和深度学习则适用于数据量大、模式复杂的领域。
人工智能哲学的联结主义方法基于神经网络的原理及其与人脑的相似性。这种方法旨在模仿生物系统中相互连接的神经元的行为,以处理信息并从数据中学习。以下是联结主义方法的一些关键方面。
连接主义方法涉及创建由互连节点组成的人工神经网络,通常称为人工神经元或节点。这些人工神经元旨在接收输入数据、执行计算并将信号传输到网络中的其他神经元。
联结主义方法假设网络中的人工神经元协同工作以处理信息。每个神经元接收输入信号,根据它们执行计算,并将输出信号传输给其他神经元。网络的输出由其神经元的集体活动决定,而信息则通过它们之间的连接流动。连接主义方法的一个重要方面是人工神经网络从数据中学习的能力。在学习过程中,网络根据输入数据和期望的结果调整神经元之间的连接强度(权重)。基于网络预测输出与预期结果的迭代比较,更新权重以最小化差异并提高网络性能。
连接主义系统强调并行处理,其中多个计算在网络上同时执行。这确保了高效可靠的信息处理。此外,连接主义模型使用分布式表示,这意味着信息被编码在多个神经元中,而不是局限于单个位置。这种分布式表示使网络能够处理复杂的模式,并根据有限的示例进行总结。
连接主义方法是深度学习的基础,深度学习是人工智能的一个子领域,专注于训练具有多层的深度神经网络。深度学习模型在计算机视觉、自然语言处理和语音识别等各个领域都非常成功。他们已经展示了自动学习分层数据表示的能力,从而在复杂任务中提供了高级性能。
总的来说,人工智能哲学的联结主义方法强调使用人工神经网络来模仿人脑处理的协作和并行性质。通过使用权重调整从数据中学习,连接主义系统已被证明在解决复杂问题方面非常有效,并在人工智能应用中取得了令人印象深刻的成果。
神经网络是一种受生物神经网络(如人脑)的结构和功能启发的计算模型。它是一种数学结构,由层层排列的相互连接的节点(人工神经元)组成。神经网络旨在处理和学习数据,使它们能够识别模式、进行预测和执行各种任务。
人工神经元是神经网络的基本单元。每个神经元接收一个或多个输入数据,对它们执行计算,并生成输出数据。输出数据通常被传输到网络中的其他神经元。
神经网络中的神经元通过代表它们之间信息流的连接相互连接。每个连接都与权重有关,权重决定了所传输信号的强度或重要性。在学习过程中调整权重因子以优化网络性能。
神经网络通常分层排列。输入层接收初始数据,而输出层生成最终结果或预测,中间可能存在一个或多个隐藏层。隐藏层允许网络通过转换和组合输入信息来学习复杂的表示。
每个神经元将激活函数应用于其输入数据的加权总和,以产生输出信号。激活函数为网络带来了非线性,使其能够对复杂连接进行建模并进行非线性预测。
神经网络基于前馈原理处理数据。输入数据逐层通过网络,对每个神经元进行计算。一层的输出用作下一层的输入,直到生成最终结果。
神经网络通过称为训练的过程学习数据。在训练过程中,输入数据与相应的所需输出一起呈现给网络。通过将其预测与预期结果进行比较,使用梯度下降和反向传播等算法调整网络的权重。这种迭代过程允许网络将其预测与预期结果之间的差异降至最低。
深度神经网络 (DNN) 是指具有多个隐藏层的神经网络。深度学习专注于训练深度神经网络,近年来因其能够自动学习分层表示并从数据中提取复杂模式而受到广泛关注。
神经网络在各个领域都非常成功,包括图像识别、自然语言处理、语音合成等。它们能够处理大量数据,根据示例进行总结并执行复杂的计算,这使它们成为人工智能领域的强大工具。
人工智能领域的哲学问题和辩论
“没有人对物质如何有意识有丝毫想法。甚至没有人知道,如果对物质如何有意识有丝毫的想法会是什么样子。(Jerry Fodor,Ernest Lepore,“整体主义:购物者指南”,布莱克威尔,1992 年)。杰里·福多(Jerry Fodor)说了这些话,我相信它们解释了我在试图弄清楚机器如何具有意识时所遇到的所有困难。然而,这些话并没有鼓励我放弃声称可以创造具有人工意识的机器的尝试。事实上,他们反其道而行之;他们鼓励我认为,如果我们(物质存在)可以有意识,那么意识一定是物质的,因此,从理论上讲,它可以被人为地创造出来。
意识的关键点是,这不是一回事。它是一组多态概念,所有这些概念都以不同的方式混合在一起。因此,很难将它们全部解开并尝试分别解释每个。记住这一点很重要,因为虽然我尽我所能解释它的某些方面,但它们的相互联系使它变得困难。在我的结论中,我试图将所有这些概念结合起来,以证明在虚拟机中强人工意识的可行性。
一般来说,人工意识(以下简称AC)分为弱AC和强AC两部分。它可以作为一个智能程序实现,在不了解产生意识的机制的情况下,在一定的细节水平上模拟有意识的存在的行为。强大的交流电是“来自复杂计算机(人工大脑)的真正有意识的思维”。在这种情况下,与其自然等价物的主要区别取决于生成该过程的硬件。然而,也有一些学者,比如Chrisley,他们认为AC有许多中间区域,他称之为人工意识滞后。
随着计算创新每年呈指数级增长,大功率交流电的可行性变得越来越重要。随着人工智能(以下简称AI)从科幻小说走向科学领域,越来越多的科学家和哲学家正在仔细研究它。包括斯蒂芬·霍金(Stephen Hawking)、埃隆·马斯克(Elon Musk)和比尔·盖茨(Bill Gates)在内的许多世界领先思想家最近签署了一封公开信,呼吁负责任地使用人工智能,造福全人类。这句话不是指这种人工智能(纯粹是智力),也与所谓的“机器问题”无关,它提出了一个问题:“我们应该如何对人工智能进行编程?”,即应该教授什么伦理学说,为什么?
尽管这些主题很有趣且非常重要,但这里根本没有足够的时间对这些问题进行深入分析。有关更多信息,请参阅 Nick Bostrom、Miles Brundage 和 George Lazarus,仅举几例。
我们已经知道机器可以智能地行动;它可以使用逻辑来解决问题并找到解决方案,因为我们已经对它进行了编程,但对机器的现象意识能力的怀疑已经出现并且普遍存在。我们与机器的不同之处在于我们有感觉、经验、自由意志、信仰等。尽管大多数人都同意我们的遗传学和生物学中存在某种“程序”,但他们确信他们可以做出自己的选择,并且人工计算机程序无法再现他们最初独特的个人主观体验。
但是,如果没有机会存在能够产生强大交流电的机器,那么这种说法就不有趣了。与强交流兼容的意识理论被引用最多的是功能主义。这意味着意识是由它的功能来定义的。它在理论上是简化的,但有一些类型的功能主义。该理论以其与艾伦·图灵、图灵机和图灵测试的联系而闻名。作为行为主义的后裔,他(有时)对心灵持有计算观点,认为功能是意识的真正参数。在某种程度上,他也因未能解释现象意识、定性状态和质性而闻名。尽管这个谜题有很多答案,但我赞成本体论上保守的排除论定性状态观。使它成为消除主义者的是,我声称通常定义的qualia不可能存在。然而,我拒绝认为我们对质和定性状态的直觉理解是错误的。qualia 的概念只是被误解了。它们可以人工创建。这是虚拟机更大功能主义的一个子理论,根据该理论,有意识的存在不限于一次一种特定的精神状态,而是总是同时处于几种状态。在虚拟机中,这可以通过不同的系统和子系统来解释。
道德主体的终极标准(也是自主性三条件理论的最终要求,即合理行事)是理性。对于人工代理来说,这个标准可能是争议最小的,这就是为什么我把它放在最后。理性和逻辑是流行文化中人工代理的定义特征。现代计算机和弱人工智能系统以其逻辑而闻名。它们执行大型计算,可以快速理性地做出极其复杂的决策。然而,人工代理的合理性并非没有争议。如前所述,Searle对机器的实际思考和理解能力提出了担忧,因为他声称没有语法可以等同于语义。我已经介绍了中文的房间和我对这个问题的回应,但我想再次强调意识的多态性,以及在意识理论中解释质和现象意识的重要性。
应该提到的是,自主理性和一般理性不是一回事。就自主性而言,理性是植入你的意志的行为,这样你就可以超越你的“动物本能”,按照你自己的理性规则生活,它意味着在你行动之前先思考。在这方面,现代计算机和弱人工智能系统的合理性不是自主的。他们别无选择;他们只是按照编程的目的去做。在某些方面,这与上面讨论的算法的确定性遵循有关,因为它涉及自由选择。正如我们所看到的,虚拟机可能非常复杂:现象意识的、非确定性的(“自由的”)、内在的有意的和敏感的(能够体验信念、欲望、痛苦和快乐)。但是,当一切都说完了,它仍然是一台机器。如果它要达到这种复杂程度,那么它的设计就要精确、合理、算法和架构,而算法计算机与意识相结合的“冷理性”使其具有自主理性。它的感觉,即它的情绪、现象意识、体验痛苦/快乐的能力,以及因此而来的信念和欲望,将使它准备好克服享乐主义的感觉并做出理性和自主的决定。
人工智能(AI)是当今一个非常活跃的研究领域。它成立于 1950 年代,至今仍然存在。在人工智能发展过程中,不同的研究方式鼓励了竞争,新的挑战和想法不断涌现。一方面,理论发展受到很大阻力,但另一方面,技术进步取得了辉煌的成果,这在科学史上是罕见的。
人工智能及其技术解决方案的目的是使用机器再现人类智能。因此,其研究对象与物质和精神领域重叠,这是相当复杂的。智能的特征决定了人工智能发展的曲折性,人工智能面临的许多问题都与哲学直接相关。不难看出,许多人工智能专家对哲学有着浓厚的兴趣;同样,人工智能的研究成果也引起了哲学界的广泛关注。
作为人工智能现代科学的基础研究,认知研究的目的是清楚地了解人类大脑意识的结构和过程,并为人类意识的智能、情感和意图的结合提供逻辑解释,因为人工智能专家促进了这些意识过程的形式表达。为了模仿人类的意识,人工智能必须首先学习意识的结构和操作。意识怎么可能?Searle说:“解释某事如何可能的最好方法是揭示它实际上是如何存在的。这使得认知科学能够推动人工智能的发展。至关重要的是,这是认知转向发生的最重要原因。正是由于哲学与认知心理学、认知神经科学、脑科学、人工智能等学科的协同关系,无论计算机科学技术如何发展,从物理符号系统、专家系统、知识工程到生物计算机和量子计算机的发展。
它离不开哲学对人类意识和各种因素的全过程的认识和理解。不管是强学派还是弱学派,从认识论的角度来看,人工智能都是依靠一个物理符号系统来模拟人类思维的某些功能。然而,它对人类意识的真正模拟不仅取决于机器人本身的技术创新,还取决于对意识过程及其影响因素的哲学理解。从目前来看,人工智能的哲学问题不在于人工智能的本质是什么,而在于解决一些更具体的智力建模问题。
关于意向性的问题,机器可以有思想或意识吗?如果是这样,它会故意伤害人吗?
关于计算机是否是有意为之的争论可以总结如下:
- 什么是意向性?机器人是否故意按照指令以某种方式行事?
- 人们在采取行动之前就已经知道自己在做什么。他们有自我意识,知道自己的行为会导致什么。这是人类意识的一个重要特征。那么,我们应该如何理解机器人根据指令以某种方式行事呢?
- 意向性可以编程吗?
Searle认为,“大脑创造心脏的功能方式不能只是简单地操作计算机程序”。相反,人们应该问:意向性是一种可以理解的精神吗?如果可以理解,为什么不能编程呢?Searle认为计算机有语法,但没有语义。但事实上,语法和语义是一个二合一的问题,它们永远不会分开。如果一个程序可以将语法和语义结合在一起,我们是否需要区分语法和语义?Searle认为,即使计算机故意复制,副本也不是原件。事实上,当我们对人类认知及其与人类行为的联系有了清晰的认识时,我们应该能够对自己的心理过程与人脑行为之间的联系进行编程,并输入我们所知道的各种人。这是使计算机“无所不知”的信息。然而,那时的我们能像塞尔说的那样吗?是人工智能,不是智能?人工智能是否因为缺乏人类蛋白质和神经细胞而没有意向性和思维过程?故意复制是“故意的”吗?复制是一种理解,真的是“理解”吗?重复的想法是“思考”吗?重复思考是“思考”吗?我们的回答是,基础不同,但功能是一样的。依靠不同的基础来形成相同的功能,人工智能只是实现我们人类智能的一种特殊方式。Searle使用意向性来否认人工智能的深度。虽然人工智能可以模拟人类的思想是有一定依据的,但即使人们认为人工智能和人类智能有明显的区别,那么我们也会觉得这种区别已经不再重要了。塞尔的观点只能再次让人心痛!
至于智能问题,机器能像人类一样使用智能解决问题吗?或者,机器解决任何复杂问题的智能是否存在限制?
人们可以不自觉地使用所谓的隐藏能力,根据波兰尼的说法,“人们知道的比他们能表达的要多”。这包括骑自行车和热身,以及更高水平的实践技能。不幸的是,如果我们不理解规则,我们就无法将规则教给计算机。这就是波兰尼的悖论。为了解决这个问题,计算机科学家并没有试图改变人类的智能,而是为人工智能开发了一种新的思维方式——通过数据进行思考。
Microsoft Research的高级研究科学家Rich Caruana说:“你可能会认为人工智能的原理是我们首先了解人类,然后以同样的方式创造人工智能,但事实并非如此。他说:“以飞机为例。它们早在了解鸟类如何飞行之前就已经建成了。空气动力学的原理是不同的,但今天我们的飞机比任何动物都飞得更高更快。
今天的人们普遍认为智能计算机将接管我们的工作。在你吃完早餐之前,它已经完成了你每周的工作量,他们不休息,不喝咖啡,不退休,甚至不需要睡觉。但事实是,虽然未来许多任务将实现自动化,但至少在短期内,这种新型智能机器很可能会与我们合作。
人工智能的问题是波兰尼悖论的现代版本。我们并不完全了解人脑的学习机制,所以我们让人工智能像统计一样思考。具有讽刺意味的是,我们目前对人工智能如何思考知之甚少,因此我们有两个未知的系统。这通常被称为“黑匣子问题”:你知道输入和输出数据,但你不知道你面前的盒子是如何得出结论的。卡鲁阿纳说:“我们现在有两种不同类型的智能,但我们不能完全理解这两种智能。
人工神经网络没有语言能力,因此它无法解释自己在做什么以及为什么这样做,并且像任何人工智能一样缺乏常识。人们越来越担心,一些人工智能操作有时会隐藏有意识的偏见,例如性别歧视或种族歧视。例如,最近有一种软件用于评估犯罪分子重复犯罪的可能性。这对黑人来说是两倍的艰难。如果他们收到的数据无可挑剔,他们的决定可能是正确的,但大多数情况下,它受到人为偏见的影响。
至于伦理问题,机器会对人类造成危险吗?科学家如何确保机器的行为符合道德规范,不会对人类构成威胁?
科学家们对机器是否能感受到爱或恨等情绪存在很多争论。他们还认为,人类没有理由期望人工智能有意识地争取善恶。在考虑人工智能如何成为风险时,专家认为有两种最可能的情况:
- 人工智能旨在执行破坏性任务:自主武器是旨在杀人的人工智能系统。如果这些武器落入恶人手中,很容易造成很大的伤害。此外,AI军备竞赛也可能在不经意间引发一场AI战争,造成大量受害者。为了避免敌军的干扰,“封闭式”武器程序将被设计得极其复杂,因此在这种情况下,人类也可能失去控制。虽然这种风险也存在于特殊的人工智能(狭义人工智能)中,但随着智能人工智能和更高水平的自我指导,这种风险将会增加。
- 人工智能被设计用来执行有用的任务,但它执行的过程可能是破坏性的:当人类和人工智能的目标尚未完全一致时,就会发生这种情况,而解决人类和人工智能目标的一致性并不是一件容易的事。试想一下,如果你叫一辆智能汽车以最快的速度把你送到机场,它可能会拼命地听从你的指示,甚至以你不想要的方式:你可能会被直升机追赶或因为超速而呕吐。如果超级智能系统的目的是一个雄心勃勃的地球工程项目,那么副作用可能是生态系统的破坏,而人类试图阻止这种情况将被视为必须消除的威胁。
至于概念性问题,人工智能的概念基础存在问题。
任何科学都是基于它所知道的,甚至科学观察的能力也与众所周知的事物有关。我们只能依靠我们所知道的来理解未知。已知和未知永远是一对矛盾,它们总是并存,相互依赖。没有已知,我们就无法学习未知;没有未知,我们就无法确保科学知识的发展和演变。有很多证据表明,当人们观察物体时,观察者获得的体验并不是由进入他们眼球的光线决定的。信号不仅由观察者视网膜上的图像决定。即使两个人看同一个物体,也会得到不同的视觉印象。正如汉森所说,当观察者观察一个物体时,他看到的远不止眼球的触觉。观察对科学非常重要,但“关于观察的陈述必须用特定理论的语言进行”。“关于观察的陈述是公开的话题,是用公共语言发表的。它们包含不同程度的普遍性和复杂性的理论。这表明观察需要理论。科学需要理论作为先行者,科学认识不是建立在未知的基础上的。企业通常缺乏对其业务最佳选择的了解,而人工智能咨询服务正试图利用人工智能来驾驭业务。
哲学对人工智能发展与应用的影响
尽管方法存在明显差异,但技术(一般而言)和哲学有着相同的兴趣对象:人。
技术发展的目的是解决日常生活中的特定实际问题,从而在不久的将来增加其对人类的有用性。但在大多数情况下,技术发展的范围并没有超出它所解决的实际和当前问题。如果问题可以在技术上解决,则根本没有必要这样做。技术始终追求一个目标:有用。这似乎是一种纯粹的工具性方法(M. Taddeo 和 L. Floridi,“人工智能如何成为一股向善的力量”,《科学》,2018 年 8 月),很少关心其产品的副作用。
相比之下,哲学不仅涉及当前问题和人类生存的实际方面。为了形成对特定主题的最广泛的看法,哲学分析不仅考察研究对象本身,还考察其伦理含义和对人类事务的其他可能影响。其中一部分是对价值观的出现、发展和本质的研究。因此,仔细分析和批判一般立场和时事,发现特定价值体系的变化,是哲学领域的主要任务。
哲学与技术:矛盾还是共生?
简而言之,哲学通常会提出新的问题和问题,而技术,尤其是人工智能的目的,自然是解决具体和存在的问题。鉴于此,乍一看,这两个领域之间的共生关系似乎是自相矛盾的。
然而,通过提出越来越多的新问题并批评提出的技术解决方案,特别是通过以精确的哲学方式研究潜在的问题,技术可以提供长期和更详细的解决方案。哲学为这种预期过程提供了工具,例如逻辑分析、伦理和道德检查,以及提出正确问题的深刻方法论。从这个角度来看:人工智能将如何影响未来的工作?
这无疑补充了新技术的前瞻性发展。当开发过程尽可能多地考虑问题和拟议的技术解决方案的可能结果时,未来的问题就可以以可持续的方式得到解决。所有这些都适用于人工智能作为技术的一个子集,现在应该将其定义为“创造智能机器的科学和技术,特别是智能软件”(“Closer to the Machine: Technical, Social, and Legal Aspects of AI”, Office of the Victorian Information Commissioner, Toby Walsh, Kate Miller, Jake Goldenfein, Fang Chen, Jianlong Zhou, 理查德·诺克、本杰明·鲁宾斯坦、玛格丽特·杰克逊,2019 年)。
但人工智能和哲学之间的联系要深远得多。
人工智能与哲学:一种特殊的联系
计算机科学家约翰·麦卡锡(John McCarthy)已经强调了人工智能与哲学之间的独特联系。尽管哲学是对所有技术科学的补充,但它对于人工智能作为一门特殊学科甚至至关重要,并为该领域提供了基本方法。
哲学家们已经发展了人工智能的一些基本概念。示例包括“……研究人工制品必须具备的特征才能被认为是智能的“(”工业革命:工业世界的四大革命“,Sentryo,2017 年 2 月 23 日),或理性的基本概念,也出现在哲学话语中。
在这种情况下,更有趣的是,需要哲学来指导人工智能的发展并将其融入我们的生活,因为它不仅涉及琐碎的技术,还涉及全新的和未探索的伦理和社会问题。