谁还记得那些年大火的“互联网+”呢?一夜之间,许多现在的互联网大厂如雨后春笋般涌现,而现在似乎已经是人工智能的时代了。然而,面对不那么智能的时刻,人们不禁发出疑问:人工智能,真的如电影里那般无所不能吗?
电影中的人工智能无所不能,追求进步,感情丰富,思考着深刻的哲学命题。然而现实中,人工智能常常机械地接受指令,遇到突发情况便手足无措,更不用说与你沟通交流了。B站上的“人工智障”表现,常常吸引数百上千万人围观。例如,一篇《出师表》在谷歌翻译中变得前言不搭后语,让人哭笑不得。
疫情期间,智能人脸识别系统更是引发争议。人们担心隐私泄露和安全问题,同时发现系统常常“惊喜”连连:有时化个妆或戴个眼镜就识别不出来,有时将图片误认作真人。这些现象让人不禁质疑,现有的人工智能技术是否真的善解人意?
正是因为人工智能在大多数情况下不能解决实际需求,互联网上诞生了一批反其道而行的大发明家。他们的产品生动展现了“别人家的产品要钱,他们的人工智能产品要命”。这不禁让人思考,为什么现在的人工智能存在这么多诟病?是因为发展时间短暂且不成熟吗?还是从根本上就南辕北辙了呢?
主流人工智能为什么不“智能”?
一些人工智能之所以并不像想象那么智能,是因为它们只是专用人工智能,而非通用人工智能系统(AGI)。目前主流AI研究所提供的产品都不属于“AGI”的范畴。例如,谷歌的Alpha Go虽然能打败围棋高手,但无法用于其他领域。虽然深度学习技术可以在某些领域应用,但进行这种变通的是人类程序员而不是程序本身。
追溯人工智能的起源,它的诞生是哲学思辨的产物。图灵在1950年提出了著名的“图灵测验”,认为人造机器具备人工智能的条件是言语行为能够成功模拟人类。然而,从诞生起,AI研究就探讨了什么是“智能”,是解决问题还是行为相似?判断AI系统的好坏也取决于它能否达到设计者最初的目标。
目前AI研究进路多样,没有哪一种获得绝对优势。但大致可以分为符号主义和联结主义两个进路。符号主义进路用形式逻辑推演,而联结主义则模拟人类神经网络的运作方式。然而,形式逻辑存在根本问题,如无法检查经验性命题的真假、无法处理语义模糊的“灰色地带”。而联结主义则依赖大量数据训练,可能存在对人类文明造成潜在威胁的风险。
深度学习对人类文明有隐藏威胁
深度学习技术依赖大量数据训练模型,但在实际应用中会对特定领域内的人类工作岗位构成威胁。例如,在医学中,AI诊断技术依赖专家医生标注数据,但长远来看会削弱人类医生的能力。深度学习还会排除偶然数据,影响人类医生诊断罕见病例的能力。徐英瑾老师认为,深度学习技术对专业领域劳动力的剥削和取代对人类文明的人文资源产生了威胁。
对眼下的主流的AI研究的批评
传统的AI系统需要明确界定环境或任务类型,不具备处理开放式环境的能力。而自然智能具有处理“全局性”性质的能力。例如,乌鸦在城市环境中也能适应生存。自然智能用相对经济的方式对环境作出回应,而人工智能则过度榨取数据陷入“探索-榨取两难”。因此,未来的理想路径可能是“小数据主义”、“绿色人工智能”、“心智建模”。
总体来看,目前被热炒的AI概念需要冷静的“祛魅”操作。我国AI发展的基本策略是利用数据红利拓展深度学习应用,但可能受到技术供应端的打压。创新性的哲学思维显得很重要。例如,基于小数据的新AI发展思路可能规避政策限制。
活动推荐
日常生活中你遇到了哪些“人工智障”事件?对AI前景有何理解和展望?从哲学角度看AI发展的未来方向在哪?欢迎在留言区分享你的看法。我们将挑选2位幸运读者送出本期主题图书《人工智能哲学十五讲》。点击图书封面即可购书。
-End-
编辑:孙嘉婧、黄泓
观点资料参考:《人工智能哲学十五讲》,著
转载及合作请加微信:BurningEmpty