本篇文章8621字,读完约22分钟
作为管理课程的补充,这位先生知道复旦大学emba人文与商务讲堂坚持将商务与人文融合的目标,让学生从人文中汲取力量,拥有巨大的智慧、视野和情感。先生们知道,人文与商业讲堂依托复旦大学强大的师资力量,邀请著名教师为emba校友分享商业、人文、政治和经济等热门话题。
最近,有一位先生知道,复旦大学哲学系教授、博士生导师、教育部长江学者许应邀从哲学的角度来谈人工智能的发展。许教授认为,人工智能不是按照心理学规定的发展方向发展起来的,因此其人工本质仍是个问题。目前,一般人工智能不能应用,但它可以被追求,而且在某种意义上它必须被追求。
复旦大学哲学系教授、博士生导师,教育部长江青年学者。主要研究领域有人工智能哲学、认识论、认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖和全国高校人文社会科学优秀成果奖。他著有《心智、语言与机器:维特根斯坦哲学与人工智能哲学的对话》,这是目前国内对人工智能哲学研究最全面、最深入的著作。2015年,他获得了中国首届科学与哲学青年作品奖。
以下是讲座的主要内容。
当我们谈论这个话题时,有一个背景,那就是公众对人工智能有很高的期望。其中,许多期望是基于对学术界实际发展的误解。例如,人工智能是近年来出现的新事物。事实上,人工智能正式成为公认的学科术语是在1956年美国达特茅斯会议上。显然,这是很久以前的事了。至于现在谈论得很多的深层学习技巧,其前身是人工神经网络。这一概念在20世纪60年代受到学术界的关注。人工智能的创始人之一艾伦·图灵在去世前也对人工神经网络做了一些粗浅的研究。这样,这项技术至少可以追溯到20世纪40年代。因此,人工智能的主流技术并不是新的,而是来自传统技术的迭代。
人工智能技术现状:理想丰满,技术骨感
关于人工智能技术主要有三种判断。一些人乐观地认为人工智能的发展将在短时间内解决我们面临的各种问题。这个论点描绘了一个乌托邦的场景:当你回到家,所有的设备都可以通过5g网络和物联网与你连接。你不需要开车。你可以什么也不做就把你带到目的地。
另一种是悲观主义,这似乎与乐观主义背道而驰,但事实上其背后的逻辑是一样的。他们都相信人工智能会毁掉很多人的工作。然而,持乐观态度的人是那些站在顶端的人。他们拥有财富、权力和资本,所以如果员工被解散也没关系。企业仍然是我的,我仍然赚钱。悲观主义者更多地站在被解雇者的立场上,认为人工智能将对人类构成巨大威胁,甚至可能导致人类的灭绝。
我的观点是泡沫理论。泡沫并不意味着人工智能的未来是暗淡的,但是这项技术的发展在短期内无法满足许多人的梦想。理想是满的,技术仍然很瘦。如果你没有意识到两者之间的区别,它将导致泡沫。
如果你去市场融资是因为你对人工智能持乐观态度,你需要仔细考虑。历史上有成功的案例,如ibm360计算机项目,但也有许多失败的案例。许多关于人工智能的融资计划都很好地描述了未来,蛋糕很大,但很有可能最终会变黄。
艾对我们生活的改变不是全球性和颠覆性的,而是局部的改善。如果你投资项目时期望颠覆人们的生活,你很可能会失败。我认为人工智能在在线教育和支持老年人方面的作用会有一些商机。但是有些项目,比如自动驾驶,有很多泡沫。
使用传统方法解决问题的能力正在下降,这是危险的
我自己的泡泡理论是基于一些基本概念,比如特殊人工智能和一般人工智能。特殊人工智能是一台只能做一两件事的机器,而普通人工智能可以做任何事情。让我给你举个例子。李世石是一名棋手,但阿尔法围棋是围棋程序。如果我们把李世石看作一个智能系统,他就是一个万能的智能系统。因为他可以做很多其他的事情,比如,他应该会做方便面和开车,他会在和阿尔法戈下棋后接受媒体采访,谈论他的感受。但阿尔法戈不会开车,也不能向媒体透露与李世石下棋后的感受。人类的特点是,你可能在一件事情上是专家,你可以做其他事情,但你并不擅长。李石师当然不如韩寒擅长驾驶,这就是特殊人工智能和一般人工智能的区别。
我们现在看到的人工智能都是特殊的,它们的生产理念都是根据特殊的理念制造出来的。例如,人脸识别和语音识别,人工智能已经通过卷积神经网络技术的进步获得了很大的能力。一个人可以通过脸和声音同时识别其他人,但是对于人工智能来说,图像识别和语音识别的神经元系统是两回事。
西方世界的剧照
但是现在人们对人工智能的想象是基于一般的人工智能,这是一件非常麻烦的事情。许多人可能看过美国戏剧《西方世界》,它是在美国的西部环境中拍摄的。里面的机器人非常强大。他们都有人类的特征,他们开始反抗人类。有些人看到后会想出办法。如果我们和机器人生活在一起,我们会受到什么样的威胁?许多人对人工智能的思考是基于这种科幻电视。科幻电影和电视作品拥有广泛的受众,不需要太多的科学素养就可以理解。
我有自己的观点。我看过太多的软科幻,但我需要看一些硬科幻。硬科幻非常接近今天的科学,如火星救援。硬科幻小说可以起到科普的作用,增强你把握现实世界的能力。如今,人工智能是基于大数据的,它缺乏应对小概率和意外事件的机制,所以我们不知道如何应对这个不断变化的世界。例如,一种新病毒,未知规模的洪水。
因此,问题不在于人工智能在拥有人类意识后会与人对抗,而在于我们的大脑在过度依赖人工智能后会变得愚蠢。不久前,我参加了在上海举行的一个论坛,会上一位外国人工智能专家介绍了他们与警方的合作,利用大数据监控可能发生的犯罪。读完之后,我心里在想,假设一个糟糕的情况,一个掌握了大数据的警察叛变了,他想做坏事,而其他人什么也做不了。这么多年来,警方习惯于监控并分析视频。一旦这些数据变得虚假,警察就不再像以前那样用大脑思考了。处理案件的传统武术正在衰落,这是相当危险的。
不要以为拥有了现代的东西就可以放弃传统。假设我们正在与另一支军队作战,现在我们可以使用5g网络,而敌人已经黑了我们的网络。我们能做什么?我们只能用信鸽或鸡毛字母,用最原始的方法。如果我们想象人工智能的能力是非常强大的,同时,我们也没有能力用传统的方法解决问题,这可能会把人类置于尴尬的境地。
为什么我们现在不能发展通用人工智能?
当前的深度学习技术真的能达到一般人工智能的水平吗?从哲学的角度来看,这是不可能的。如果一件事在哲学中不起作用,那就是一个非常严重的指控,这意味着它根本不可能。例如,永动机在哲学上是不可能的。
现在让我来证明这一点。有一个大前提、一个小前提和一个结论,这是最典型的三段论论证。
通用人工智能系统具有通用性。由于它具有普遍性,因此有必要处理全球性问题。总体情况如何?是在不同理论体系之间做出选择的能力。不同的需求相互冲突,所以你应该试着找到一个平衡点。这类似于在别人家里工作的家政工人。如果主人是一个知识分子,家里有很多书,他可以要求打扫书房,但是不能太干净以至于找不到书。每个学习的人都知道书的可及性和整洁性经常是相互矛盾的,同时读几本书需要时间。那么,它是干净的还是容易拿的?这里有一个平衡点。这个平衡点不能由程序来设置,需要和用户一起运行。
任何集成系统都必须具备处理各种情况的能力。有些情况是非常极端的,比如一辆自动驾驶汽车,有一个人在路的左边,五个人在路的右边,而且速度太快不能刹车,那么该向哪个方向转弯呢?这时,节目突然得到消息,左边的人是我国非常重要的专家。你认为专家更重要吗?但转念一想,每个人的生活都是平等的。康德说过,人不仅是手段,也是目的。他说,人们包括普通大众,不一定是专家、教授或企业家。
在这个时候,很麻烦,不同的程序会打架。Agi必须处理全球性问题,并在不同领域的冲突中找到平衡点。
前提是我们都知道人工智能是基于规则的,也就是一系列的逻辑原理。然而,神经网络的学习思想不同,没有明确的规则。有规则和没有规则有什么区别?让我给你举个例子。假设一个俄罗斯男孩去少林寺学习武术,但他的语言不合理。我该怎么办?有一种方法,和尚做一个动作,年轻人跟着做,对的时候微笑,错的时候喝酒。这个年轻人被重击后,他知道自己错了,但到底出了什么问题?他可能不会突然知道,所以他需要不断尝试和犯错误。千千有成千上万种错误的武术,所以你需要猜一猜。起初,这种猜测是随机的。因此,语言的好处是显而易见的。语言是以规则为基础的,规则本身应该用语言来表达,告诉你武术的规则是什么,然后把人变成低级别的运动。
但是神经网络不是这样,它是我们前面提到的愚蠢的教学方法。人为错误后的自省是合理的,并且基于规则。但系统不是,它只是随机调整参数,并猜测错误。下次再猜。它是通过大量的猜测,在正确的方向上慢慢地猜测事物。人们不能这样学习,他们会筋疲力尽的。但是机器可以,而且它们可以做出人类在短时间内做不到的巨大猜测。深层神经网络技术用强大的机器掩盖了方法本身的愚蠢。如果你有现成的数据,这很容易做到,但是如果你没有高质量的数据,你自己收集数据是很有问题的。
当前深度学习机制的根本问题是缺乏跨学科学习能力,这是人工智能不能敏捷化的根本原因。不同的系统有不同的运行模式。象棋有它的玩法,围棋也有它的玩法。人们可以适应变化,但是人工智能很难适应。我们能把所有特殊的人工智能整合成一套通用的人工智能吗?还有一个问题,协同效应。就像打仗一样,它需要各个团队的协调和整合,需要一个将军来领导,而人工智能不具备整体部署能力。
人工智能和人类智能之间的差距在哪里?一些专家提出了所谓的卡特尔-霍恩-卡罗尔三层情报模型。它们将一般智力分解成许多东西,如流体智力、晶体智力、定量推理、读写能力、短期记忆、长期记忆、视觉加工和听觉加工等。这个东西有一个很重要的目的,工作单位在招聘的时候可以测试他的智力。定量推理无非是算术,而阅读和写作能力是看你是否能读懂文章和理解要点。那么,什么是流体智能和晶体智能?水晶智能意味着在老师给你一个问题并告诉你答案后,看看你是否能把以前的想法放在新的主题上。如果可以的话,这很容易。流体智能要求更高。在很大程度上,它强调的是一种聪明的状态。
从这种比较中,我们可以发现目前的人工智能并不是按照心理学规定的这些发展方向发展的,因此它的人工本质是很成问题的。
的确,有些人正在研究通用人工智能,但主流技术仍然不是通用人工智能,全世界的研究团队估计有几百个。然而,我始终认为一般的人工智能是无法实现的,但它是可以追求的,而且必须在一定意义上追求。说人工智能应该总是停留在一种特殊的状态,而不应该发展到一种普遍的状态,这是一种谬论。说今天的人工智能是普遍的人工智能也是一种谬论。
引言:作为管理课程的补充。先生们知道。复旦大学emba人文与商务讲堂坚持quot商业、道教、人文与融合
作为管理课程的补充,这位先生知道复旦大学emba人文与商务讲堂坚持将商务与人文融合的目标,让学生从人文中汲取力量,拥有巨大的智慧、视野和情感。先生们知道,人文与商业讲堂依托复旦大学强大的师资力量,邀请著名教师为emba校友分享商业、人文、政治和经济等热门话题。
最近,有一位先生知道,复旦大学哲学系教授、博士生导师、教育部长江学者许应邀从哲学的角度来谈人工智能的发展。许教授认为,人工智能不是按照心理学规定的发展方向发展起来的,因此其人工本质仍是个问题。目前,一般人工智能不能应用,但它可以被追求,而且在某种意义上它必须被追求。
复旦大学哲学系教授、博士生导师,教育部长江青年学者。主要研究领域有人工智能哲学、认识论、认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖和全国高校人文社会科学优秀成果奖。他著有《心智、语言与机器:维特根斯坦哲学与人工智能哲学的对话》,这是目前国内对人工智能哲学研究最全面、最深入的著作。2015年,他获得了中国首届科学与哲学青年作品奖。
以下是讲座的主要内容。
当我们谈论这个话题时,有一个背景,那就是公众对人工智能有很高的期望。其中,许多期望是基于对学术界实际发展的误解。例如,人工智能是近年来出现的新事物。事实上,人工智能正式成为公认的学科术语是在1956年美国达特茅斯会议上。显然,这是很久以前的事了。至于现在谈论得很多的深层学习技巧,其前身是人工神经网络。这一概念在20世纪60年代受到学术界的关注。人工智能的创始人之一艾伦·图灵在去世前也对人工神经网络做了一些粗浅的研究。这样,这项技术至少可以追溯到20世纪40年代。因此,人工智能的主流技术并不是新的,而是来自传统技术的迭代。
人工智能技术现状:理想丰满,技术骨感
关于人工智能技术主要有三种判断。一些人乐观地认为人工智能的发展将在短时间内解决我们面临的各种问题。这个论点描绘了一个乌托邦的场景:当你回到家,所有的设备都可以通过5g网络和物联网与你连接。你不需要开车。你可以什么也不做就把你带到目的地。
另一种是悲观主义,这似乎与乐观主义背道而驰,但事实上其背后的逻辑是一样的。他们都相信人工智能会毁掉很多人的工作。然而,持乐观态度的人是那些站在顶端的人。他们拥有财富、权力和资本,所以如果员工被解散也没关系。企业仍然是我的,我仍然赚钱。悲观主义者更多地站在被解雇者的立场上,认为人工智能将对人类构成巨大威胁,甚至可能导致人类的灭绝。
我的观点是泡沫理论。泡沫并不意味着人工智能的未来是暗淡的,但是这项技术的发展在短期内无法满足许多人的梦想。理想是满的,技术仍然很瘦。如果你没有意识到两者之间的区别,它将导致泡沫。
如果你去市场融资是因为你对人工智能持乐观态度,你需要仔细考虑。历史上有成功的案例,如ibm360计算机项目,但也有许多失败的案例。许多关于人工智能的融资计划都很好地描述了未来,蛋糕很大,但很有可能最终会变黄。
艾对我们生活的改变不是全球性和颠覆性的,而是局部的改善。如果你投资项目时期望颠覆人们的生活,你很可能会失败。我认为人工智能在在线教育和支持老年人方面的作用会有一些商机。但是有些项目,比如自动驾驶,有很多泡沫。
使用传统方法解决问题的能力正在下降,这是危险的
我自己的泡泡理论是基于一些基本概念,比如特殊人工智能和一般人工智能。特殊人工智能是一台只能做一两件事的机器,而普通人工智能可以做任何事情。让我给你举个例子。李世石是一名棋手,但阿尔法围棋是围棋程序。如果我们把李世石看作一个智能系统,他就是一个万能的智能系统。因为他可以做很多其他的事情,比如,他应该会做方便面和开车,他会在和阿尔法戈下棋后接受媒体采访,谈论他的感受。但阿尔法戈不会开车,也不能向媒体透露与李世石下棋后的感受。人类的特点是,你可能在一件事情上是专家,你可以做其他事情,但你并不擅长。李石师当然不如韩寒擅长驾驶,这就是特殊人工智能和一般人工智能的区别。
我们现在看到的人工智能都是特殊的,它们的生产理念都是根据特殊的理念制造出来的。例如,人脸识别和语音识别,人工智能已经通过卷积神经网络技术的进步获得了很大的能力。一个人可以通过脸和声音同时识别其他人,但是对于人工智能来说,图像识别和语音识别的神经元系统是两回事。
西方世界的剧照
但是现在人们对人工智能的想象是基于一般的人工智能,这是一件非常麻烦的事情。许多人可能看过美国戏剧《西方世界》,它是在美国的西部环境中拍摄的。里面的机器人非常强大。他们都有人类的特征,他们开始反抗人类。有些人看到后会想出办法。如果我们和机器人生活在一起,我们会受到什么样的威胁?许多人对人工智能的思考是基于这种科幻电视。科幻电影和电视作品拥有广泛的受众,不需要太多的科学素养就可以理解。
我有自己的观点。我看过太多的软科幻,但我需要看一些硬科幻。硬科幻非常接近今天的科学,如火星救援。硬科幻小说可以起到科普的作用,增强你把握现实世界的能力。如今,人工智能是基于大数据的,它缺乏应对小概率和意外事件的机制,所以我们不知道如何应对这个不断变化的世界。例如,一种新病毒,未知规模的洪水。
因此,问题不在于人工智能在拥有人类意识后会与人对抗,而在于我们的大脑在过度依赖人工智能后会变得愚蠢。不久前,我参加了在上海举行的一个论坛,会上一位外国人工智能专家介绍了他们与警方的合作,利用大数据监控可能发生的犯罪。读完之后,我心里在想,假设一个糟糕的情况,一个掌握了大数据的警察叛变了,他想做坏事,而其他人什么也做不了。这么多年来,警方习惯于监控并分析视频。一旦这些数据变得虚假,警察就不再像以前那样用大脑思考了。处理案件的传统武术正在衰落,这是相当危险的。
不要以为拥有了现代的东西就可以放弃传统。假设我们正在与另一支军队作战,现在我们可以使用5g网络,而敌人已经黑了我们的网络。我们能做什么?我们只能用信鸽或鸡毛字母,用最原始的方法。如果我们想象人工智能的能力是非常强大的,同时,我们也没有能力用传统的方法解决问题,这可能会把人类置于尴尬的境地。
为什么我们现在不能发展通用人工智能?
当前的深度学习技术真的能达到一般人工智能的水平吗?从哲学的角度来看,这是不可能的。如果一件事在哲学中不起作用,那就是一个非常严重的指控,这意味着它根本不可能。例如,永动机在哲学上是不可能的。
现在让我来证明这一点。有一个大前提、一个小前提和一个结论,这是最典型的三段论论证。
通用人工智能系统具有通用性。由于它具有普遍性,因此有必要处理全球性问题。总体情况如何?是在不同理论体系之间做出选择的能力。不同的需求相互冲突,所以你应该试着找到一个平衡点。这类似于在别人家里工作的家政工人。如果主人是一个知识分子,家里有很多书,他可以要求打扫书房,但是不能太干净以至于找不到书。每个学习的人都知道书的可及性和整洁性经常是相互矛盾的,同时读几本书需要时间。那么,它是干净的还是容易拿的?这里有一个平衡点。这个平衡点不能由程序来设置,需要和用户一起运行。
任何集成系统都必须具备处理各种情况的能力。有些情况是非常极端的,比如一辆自动驾驶汽车,有一个人在路的左边,五个人在路的右边,而且速度太快不能刹车,那么该向哪个方向转弯呢?这时,节目突然得到消息,左边的人是我国非常重要的专家。你认为专家更重要吗?但转念一想,每个人的生活都是平等的。康德说过,人不仅是手段,也是目的。他说,人们包括普通大众,不一定是专家、教授或企业家。
在这个时候,很麻烦,不同的程序会打架。Agi必须处理全球性问题,并在不同领域的冲突中找到平衡点。
前提是我们都知道人工智能是基于规则的,也就是一系列的逻辑原理。然而,神经网络的学习思想不同,没有明确的规则。有规则和没有规则有什么区别?让我给你举个例子。假设一个俄罗斯男孩去少林寺学习武术,但他的语言不合理。我该怎么办?有一种方法,和尚做一个动作,年轻人跟着做,对的时候微笑,错的时候喝酒。这个年轻人被重击后,他知道自己错了,但到底出了什么问题?他可能不会突然知道,所以他需要不断尝试和犯错误。千千有成千上万种错误的武术,所以你需要猜一猜。起初,这种猜测是随机的。因此,语言的好处是显而易见的。语言是以规则为基础的,规则本身应该用语言来表达,告诉你武术的规则是什么,然后把人变成低级别的运动。
但是神经网络不是这样,它是我们前面提到的愚蠢的教学方法。人为错误后的自省是合理的,并且基于规则。但系统不是,它只是随机调整参数,并猜测错误。下次再猜。它是通过大量的猜测,在正确的方向上慢慢地猜测事物。人们不能这样学习,他们会筋疲力尽的。但是机器可以,而且它们可以做出人类在短时间内做不到的巨大猜测。深层神经网络技术用强大的机器掩盖了方法本身的愚蠢。如果你有现成的数据,这很容易做到,但是如果你没有高质量的数据,你自己收集数据是很有问题的。
当前深度学习机制的根本问题是缺乏跨学科学习能力,这是人工智能不能敏捷化的根本原因。不同的系统有不同的运行模式。象棋有它的玩法,围棋也有它的玩法。人们可以适应变化,但是人工智能很难适应。我们能把所有特殊的人工智能整合成一套通用的人工智能吗?还有一个问题,协同效应。就像打仗一样,它需要各个团队的协调和整合,需要一个将军来领导,而人工智能不具备整体部署能力。
人工智能和人类智能之间的差距在哪里?一些专家提出了所谓的卡特尔-霍恩-卡罗尔三层情报模型。它们将一般智力分解成许多东西,如流体智力、晶体智力、定量推理、读写能力、短期记忆、长期记忆、视觉加工和听觉加工等。这个东西有一个很重要的目的,工作单位在招聘的时候可以测试他的智力。定量推理无非是算术,而阅读和写作能力是看你是否能读懂文章和理解要点。那么,什么是流体智能和晶体智能?水晶智能意味着在老师给你一个问题并告诉你答案后,看看你是否能把以前的想法放在新的主题上。如果可以的话,这很容易。流体智能要求更高。在很大程度上,它强调的是一种聪明的状态。
从这种比较中,我们可以发现目前的人工智能并不是按照心理学规定的这些发展方向发展的,因此它的人工本质是很成问题的。
的确,有些人正在研究通用人工智能,但主流技术仍然不是通用人工智能,全世界的研究团队估计有几百个。然而,我始终认为一般的人工智能是无法实现的,但它是可以追求的,而且必须在一定意义上追求。说人工智能应该总是停留在一种特殊的状态,而不应该发展到一种普遍的状态,这是一种谬论。说今天的人工智能是普遍的人工智能也是一种谬论。
来源:零点娱乐时刊
标题:复旦EMBA邀徐英瑾教授从哲学的视角探讨人工智能的发展
地址:http://www.02b8.com/yjdyw/11907.html