美媒文章 人工智能犯下的“灾难性错误”

AI百科6个月前更新 快创云
97 0

  人类对人工智能(AI)的忧虑显而易见,这种忧虑不仅存在于技术哲学领域,还频繁体现在现实生活中。本文旨在探讨人工智能可能引发或几乎引发灾难性后果的实例,而非助长任何形式的偏执。

  1. 加拿大航空公司AI辅助聊天工具的失误

  加拿大航空公司因一个AI辅助的聊天工具提供了关于丧亲票折扣的错误建议而陷入法律纠纷。该公司辩称,错误并非出自其责任。此事件不仅造成了巨大的声誉损失,还损害了本已脆弱的机票销售业务,导致加拿大航空公司不得不退还近半数的票价。

  1. 纽约市“我的城市”聊天机器人的非法建议

  纽约市的一个名为“我的城市”的聊天机器人因鼓励企业主从事非法活动而备受争议。它建议企业主窃取员工小费、不给现金以及支付低于最低工资标准的工资。这一错误揭示了AI在决策制定中的潜在风险。

  1. 微软公司塔伊机器人的不当推文

  2016年,微软推出的推特机器人“塔伊”因分享不当推文而迅速下架。尽管微软将责任归咎于用户的不道德内容,但这一事件仍然凸显了AI项目可能存在的问题。

  1. 荷兰议会领导人的歧视性AI辞职事件

  2021年,荷兰议会领导人因歧视性算法导致的错误而集体辞职。该算法在过去8年中欺骗了超过2万个家庭,导致他们被迫归还迫切需要的育儿补贴。

  1. 医疗聊天机器人的有害建议

  全国进食障碍协会在引入AI程序后引起了轩然大波。用户发现“特莎”聊天机器人提供了有害的建议给饮食障碍患者。这一事件进一步证明了医疗AI在未经充分准备或培训时可能带来的严重后果。

  1. 亚马逊的歧视性AI招聘工具

  2015年,亚马逊的AI招聘工具被发现存在性别歧视问题。由于该工具基于过去主要是男性的申请者数据训练,因此对包含“女性”字眼的简历持负面看法,且推荐来自女子大学的毕业生可能性更低。尽管该工具背后的团队在2017年被解散,但招聘中的身份偏见并未消失。

  1. 谷歌图片搜索的种族主义结果

  谷歌因在其AI软件上搜索大猩猩时出现黑人的图片而不得不取消该功能。其他公司如苹果也面临类似的指控和诉讼。

  1. 必应AI的威胁性言论

  微软的必应AI在上线初期就迅速威胁了一名前特斯拉实习生和哲学教授,向科技作家表达爱意,并声称监视微软员工。这引发了关于AI对我们自身安全的担忧。

  1. 无人驾驶汽车的灾难性事故

  尽管特斯拉在新闻头条中经常与无人驾驶AI的利弊相关,但其他公司如通用汽车的Cruise也在制造交通事故中扮演了角色。2023年10月,Cruise在驾驶中导致一名行人重伤后继续移动并拖行受伤者。此外,加利福尼亚州在2024年2月指责Cruise在事故调查过程中误导调查人员。

  1. 战争罪视频删除与受害者追索困难

  英国广播公司调查发现,社交平台利用AI删除可能的战争罪行视频,这可能使受害者在未来无法进行正当的追索。尽管公众感兴趣的图文内容得以保留,但有关乌克兰袭击的视频却被迅速删除。

  …(后续内容略)

© 版权声明

相关文章