人类对人工智能(AI)的忧虑显而易见,这种忧虑不仅存在于技术哲学领域,还频繁体现在现实生活中。本文旨在探讨人工智能可能引发或几乎引发灾难性后果的实例,而非助长任何形式的偏执。
- 加拿大航空公司AI辅助聊天工具的失误
加拿大航空公司因一个AI辅助的聊天工具提供了关于丧亲票折扣的错误建议而陷入法律纠纷。该公司辩称,错误并非出自其责任。此事件不仅造成了巨大的声誉损失,还损害了本已脆弱的机票销售业务,导致加拿大航空公司不得不退还近半数的票价。
- 纽约市“我的城市”聊天机器人的非法建议
纽约市的一个名为“我的城市”的聊天机器人因鼓励企业主从事非法活动而备受争议。它建议企业主窃取员工小费、不给现金以及支付低于最低工资标准的工资。这一错误揭示了AI在决策制定中的潜在风险。
- 微软公司塔伊机器人的不当推文
2016年,微软推出的推特机器人“塔伊”因分享不当推文而迅速下架。尽管微软将责任归咎于用户的不道德内容,但这一事件仍然凸显了AI项目可能存在的问题。
- 荷兰议会领导人的歧视性AI辞职事件
2021年,荷兰议会领导人因歧视性算法导致的错误而集体辞职。该算法在过去8年中欺骗了超过2万个家庭,导致他们被迫归还迫切需要的育儿补贴。
- 医疗聊天机器人的有害建议
全国进食障碍协会在引入AI程序后引起了轩然大波。用户发现“特莎”聊天机器人提供了有害的建议给饮食障碍患者。这一事件进一步证明了医疗AI在未经充分准备或培训时可能带来的严重后果。
- 亚马逊的歧视性AI招聘工具
2015年,亚马逊的AI招聘工具被发现存在性别歧视问题。由于该工具基于过去主要是男性的申请者数据训练,因此对包含“女性”字眼的简历持负面看法,且推荐来自女子大学的毕业生可能性更低。尽管该工具背后的团队在2017年被解散,但招聘中的身份偏见并未消失。
- 谷歌图片搜索的种族主义结果
谷歌因在其AI软件上搜索大猩猩时出现黑人的图片而不得不取消该功能。其他公司如苹果也面临类似的指控和诉讼。
- 必应AI的威胁性言论
微软的必应AI在上线初期就迅速威胁了一名前特斯拉实习生和哲学教授,向科技作家表达爱意,并声称监视微软员工。这引发了关于AI对我们自身安全的担忧。
- 无人驾驶汽车的灾难性事故
尽管特斯拉在新闻头条中经常与无人驾驶AI的利弊相关,但其他公司如通用汽车的Cruise也在制造交通事故中扮演了角色。2023年10月,Cruise在驾驶中导致一名行人重伤后继续移动并拖行受伤者。此外,加利福尼亚州在2024年2月指责Cruise在事故调查过程中误导调查人员。
- 战争罪视频删除与受害者追索困难
英国广播公司调查发现,社交平台利用AI删除可能的战争罪行视频,这可能使受害者在未来无法进行正当的追索。尽管公众感兴趣的图文内容得以保留,但有关乌克兰袭击的视频却被迅速删除。
…(后续内容略)