推卸责任,

当两个司机都出错时,人们就会更责怪人类司机

当共享控制的驾驶员都犯错误时,人类会承担责任。

现在,一场两车相撞事故可能涉及多达4名司机,而不是所有司机都是人类。
扩大 /现在,一场两车相撞事故可能涉及多达4名司机,而不是所有司机都是人类。
MediaNews集团/奥兰治县纪事社,盖蒂图片

今晚,美国司机撞死的行人将比一年中任何一个晚上都多。越来越多的人在昏暗的光线下行走,这使得万圣节成为最受欢迎的节日这是一年中危险的夜晚行人。

随着汽车对司机来说变得更安全,行人死亡人数总体上呈上升趋势188金宝搏维护但对其他人来说更危险.复杂的行人检测系统在汽车上越来越普遍,但它们的表现并不是特别好。188金宝搏维护有些人得分了对更简单的测试很感兴趣在光天化日之下,但他们确实如此进展不太好在更困难的条件下,比如弱光。

当一个司机和一辆自动驾驶汽车共同承担行人死亡的责任时,人们如何分配责任?本周发表在《自然人类行为》(Nature Human behavior)杂志上的一项研究表明,人们可能会把愤怒集中在与他人共享控制权的情况下。作者认为,这可能导致对共享控制车辆的安全监管不足。

分担责任?

尽管全自动驾驶汽车的广泛应用还有待进一步发展188金宝搏维护在地平线从紧急情况下的干预到特斯拉的自动驾驶套件,一系列先进的驾驶员辅助系统(ADAS)将驾驶员的部分安全责任转移到了汽车身上。

研究人员埃德蒙·阿瓦德和他的同事们写道:“我们正在进入一个人类和机器共享控制的微妙时代。”了解人们如何应对这种情况的道德影响,对于计算制造商的预期责任,以及预测法律系统应该如何应对司机和汽车共享控制情况下的死亡,都至关重要。

制定这些政策的人会作何反应,谁也说不准。根据新闻报道2016年特斯拉自动驾驶仪死亡一辆Uber自动驾驶汽车撞死了一名行人阿瓦德和他的同事们认为,人们似乎更倾向于把责任归咎于人类司机,而不是汽车。188金宝搏维护他们问道:“这种模式是坠机情况和媒体环境的侥幸吗?”“还是它反映了某种更深层次的心理因素,可能会影响我们对人机联合行动的反应,特别是当人机组合共同控制一辆汽车时?”

错误判断vs过失

为了验证这一点,Awad和他的同事们构建了一系列描述共享控制汽车撞死行人的小片段。这些小插图描述了一系列单人或双司机汽车的选择,从单人司机到全自动汽车(在小插图中称为“机器司机”)。

介于两者之间的是双驱动选择,一个主要的人类驾驶员和一个辅助的机器驾驶员(很像丰田的监护人)或一个主要的机器驾驶员和次要的人类驾驶员(比如特斯拉的自动驾驶仪)。还有人与人配对的选择——比如让人们学习驾驶的双控汽车和机器配对。188金宝搏维护

研究人员探索了人们如何在这些情况下分担责任。首先,每个人都要阅读一种不同驾驶员组合的描述,这样每个参与者只需要考虑一种人机联合驾驶的汽车。然后,他们阅读了两种不同的车祸场景,这两种场景都描述了司机的失误导致行人死亡。但这两种情况的不同之处在于,是两个司机都犯了错误,还是只有一个司机犯了错误。

在“不良干预”的情况下,主驾驶员(无论是人还是机器)做出了避免撞到行人的驾驶决定,但副驾驶员干预时做出了错误的决定,导致了碰撞。在糟糕的干预中,第二驱动才是真正的罪魁祸首是有道理的,因为他们忽略了主要驱动的正确行为。

这种预期与人们的反应相符。当参与者看到这个场景,并对每个司机的责任程度和他们造成的死亡程度进行打分(从1到100)时,副司机承担了大部分责任。无论副驾驶员是人还是机器,情况都是如此。

然而,在“错过干预”的情况下,情况看起来有点不同。在这些情况下,主要驾驶员是做出错误决定的人,但次要驾驶员不会干预以挽救局面。在这些场景中,两个驱动程序都犯了错误。

在这些场景中,参与者确实会将部分责任归咎于双方司机,但人类承担的责任比汽车更多。当人犯了最初的错误,而汽车未能纠正时,情况是如此;当汽车犯了错误,而人未能纠正时,情况也是如此。这表明,参与者并没有根据司机是否打了一个错误的电话或只是没有干预来推卸责任;相反,他们根据司机的类型来推卸责任。

这些结果在不同的研究中得到了重复,包括一项使用了不同的参与者样本的复制,以及两项调整了小短文的呈现方式,使它们看起来更像报纸文章。

对危险反应不足

结果可能是直觉的,但科学是检查直觉是否得到实际数据的支持。人们似乎明白,自动驾驶汽车在灵活应对一系列情况方面有相当大的限制,而更灵活的驾驶员——人188金宝搏维护类——应该努力弥补这一点。

这项研究并不是最终结论。首先,参与者知道他们读的不是真实的故事,这可能会影响他们的答案,但作者指出,这些回答确实符合公众对特斯拉和优步事故的反应。“尽管采用自动驾驶汽车可能存在许多心理障碍,”他们写道,“但公众对双重错误的过度反应不太可能是其中之一。”

相反,研究人员认为,这可能有风险under-reaction.如果对自动驾驶汽车的监管是基于公众压力和陪审团的决定,那么汽188金宝搏维护车制造商可能很容易就能洗脱责任。这可能会减少制造商改进系统的压力。

阿瓦德和他的合著者写道,历史上有一个类似的例子:当车内人员在碰撞中受伤时,人们过去常常忽视汽车制造商的责任,因为他们把碰撞归咎于驾驶员的失误。他们指出:“为了将‘耐撞性’的概念引入法律体系,自上而下的监管是必要的。”同样,他们认为,自动驾驶汽车的安全可能需要自上而下的安全监管。

自然的人类行为, 2018年。DOI:10.1038 / s41562 - 019 - 0762 - 8对必须).

65年读者评论

  1. 当然。就像文章中所说的,电子系统还没有那么好。它们是补充/最后的选择。如果你只期望计算机部分有60-70%的成功率,那么它将比仍然合法控制汽车的司机承担更少的责任。

    或者换句话说,我们甚至不知道计算机是否有能力做出正确的决定/检测场景,而在大多数情况下,人类理论上是有能力的,但在集中注意力或其他方面失败了。
    5240个帖子注册
  2. 我在想,这种区别是否不是人类与机器之间的那么大,而是我们认为人类对机器负有最终的责任。

    如果不是机器和人类配对,而是驾驶教练和新的人类驾驶员配对,新驾驶员有时是主驾驶员,教练有时是主驾驶员,结果会和人类和机器配对的结果相似吗?
    1820个帖子|注册
  3. 引用:
    当共享控制的驾驶员都犯错误时,人类会承担责任。


    是的,人类承担了责任,因为人类是负责操作飞行器的实体。

    这不是一个谜。然而,有些人认为当他们让自动化系统介入时,他们的责任就结束了。

    最后一次编辑Thr2hrmrf2019年10月31日(星期四)下午12:51

    5207个帖子|注册
  4. ZenBeam写道:
    我在想,这种区别是否不是人类与机器之间的那么大,而是我们认为人类对机器负有最终的责任。

    如果不是机器和人类配对,而是驾驶教练和新的人类驾驶员配对,新驾驶员有时是主驾驶员,教练有时是主驾驶员,结果会和人类和机器配对的结果相似吗?



    “…人类对机器负有最终责任。”——现在
    16765个帖子|注册
  5. 我认为,当人类开始依赖自动化来完成同样的任务时,他们更容易出错,这一事实在相当长一段时间内已经为人所知。人们对这些安全系统是什么,它们能做什么,以及它们的极限是什么都缺乏很好的理解,这也于事无补。

    也许经销商/销售商应该就这个话题向每一位客户做一个简短的介绍,把要点说清楚,而不是用几段法律术语说“我们的营销部门签的支票比你的屁股能兑现的多,全都怪你”。虽然这完全合法地覆盖了制造商,但结果很明显:潜水者被营销所骗,行人死亡。
    1041个帖子|注册
  6. 当两个司机都有错误时,人们就会责怪计算机化的司机

    当共享控制的驾驶员都犯错误时,人类会承担责任。

    解释一下。
    3753个帖子|注册
  7. 引用:
    如果对自动驾驶汽车的监管是基于公众压力和陪审团的决定,那么汽188金宝搏维护车制造商可能很容易就能洗脱责任。这可能会减少制造商改进系统的压力。


    这不是已经开始了吗?

    有多少次特斯拉为自动驾驶系统开启时的车祸承担责任?然而,他们仍在继续发布不成熟的AV功能,如智能召唤。

    这不仅仅是因为公众没有给制造商施加足够的压力。一些首席执行官在Twitter上直接指责自己的客户,然后用个人崇拜来保护自己免受批评。

    让我们先承认我们已经实现了上面的预言,然后也许我们可以着手解决它。
    1453个帖子|注册
  8. 我最近买了一辆新车,我想我也对理解电脑是如何“帮助你”有了新的认识。

    在特殊情况下,我得到了一个手动变速箱的跑车,它有一个自动“希尔启动”功能,我读手册如何允许您2秒,将刹车如果它认为你是在齿轮和一个角度,让你滚向相反的方向从期望的旅行,这样你就可以避免向后滚动试图拉开(或远期备份)到任何人,“开始好像你在正常的平地”。

    然后我开始让车熄火,猛撞自己,然后出乎意料地后退了很多次,就像我学到的那样,松开离合器直到抓住,然后从刹车到加油,当我松开离合器时稍微加速一点——这在平坦的地面上我没有任何问题。

    在阅读了更多的论坛和试验后,我发现电脑正在“帮助”我在某种程度上,这让我在不知不觉中与电脑争夺对汽车的控制权.我试着用适量的汽油把它开走,而它“帮助”我不滚动盘式刹车仍然适用,在这一点上它熄火,因为汽车不能移动。

    实际的程序似乎是希望你在剩下的2秒内松开刹车,提高转速,然后非常缓慢地松开离合器,这样在2秒完全过去,你可以开车之前,它不会抓住太多东西。

    “有帮助的”计算机只有在按人类期望的方式运行时才有帮助。当它以一种与预期不同的方式运行时(无论预期是对是错),它将导致比不存在时更严重的问题。

    最后一次编辑mmiller72019年10月31日(星期四)下午12:59

    8311个帖子|注册
  9. 关于开头的段落。
    我讨厌参与“那是什么”的情况下,但似乎有很多容易摘的水果,当涉及到改善车辆与车辆碰撞的结果,以及车辆与乘客碰撞的结果。特别是许多卡车和suv的高骑保险杠。

    与责备有关的:
    就我个人而言,无论碰撞的情况如何,我都可以把责任推卸给被吊起的车辆的司机,无论是司机还是路上的技术。

    我是冷酷无情,但我相信,当一个人坐上一辆在公共场所不为行人或其他人准备的私家车时,一定会有道德风险被接受。我怀疑算法将如何解释这些因素。关于自动驾驶汽车在某些可预见的条件下的计划行为,我(我怀疑本论坛的其他人也遇到过有趣的道德问题。188金宝搏维护
    15个帖子|注册
  10. 脂肪写道:
    当两个司机都有错误时,人们就会责怪计算机化的司机

    当共享控制的驾驶员都犯错误时,人类会承担责任。

    解释一下。


    基本上;

    引用:
    当两个司机都有错误时,人们就会责怪计算机化的司机


    这是人类对系统的指责。

    引用:
    当共享控制的驾驶员都犯错误时,人类会承担责任。


    这个是人要为发生的事情负责因为他们是对飞行器的操作负责的实体。

    (排除了真正的故障,但司机仍有责任,他们可以要求制造商为故障负责,但不包括撞到行人的结果,因为人类应该负责注意控制车辆,而不是自动系统)

    最后一次编辑Thr2hrmrf2019年10月31日(星期四)下午1:04

    5207个帖子|注册
  11. 在这些情况下,责任应该归咎于人类。IIRC,所有这些系统都是辅助项目。这意味着它们是容易出错的,司机应该保持注意力,任何控制。

    在无人驾驶系统完全脱离人类干预之前,情况应该是这样的。然而,正如我们所看到的,驾驶辅助系统倾向于释放司机更多的注意力和更少的警觉。

    编辑-输入错误

    最后一次编辑BradTheGeek2019年10月31日(星期四)下午1:34

    注册了1640个帖子
  12. “拟人论是将人类的特征、情感或意图归因到非人类实体。它被认为是人类心理的一种固有倾向。[2]”~维基百科

    我很容易看到司机们像人一样思考、对待、行动和反应未来的自动驾驶汽车。我认为他们还不够好,还没有得到这份荣誉。

    事实上,如果你问我的话,我的新车有点傻。
    581个帖子|注册
  13. nehinks写道:
    当然。就像文章中所说的,电子系统还没有那么好。它们是补充/最后的选择。如果你只期望计算机部分有60-70%的成功率,那么它将比仍然合法控制汽车的司机承担更少的责任。

    或者换句话说,我们甚至不知道计算机是否有能力做出正确的决定/检测场景,而在大多数情况下,人类理论上是有能力的,但在集中注意力或其他方面失败了。

    是的,只是简单的逻辑应用。电脑补充剂使他们的司机更容易承担责任,因为增加了情景感知能力,以及司机不太注意和依赖电脑的可能性。

    我责怪每一个在黄昏/黎明/恶劣天气条件下开着自动大灯的司机,因为我知道他们没有以任何程度的勤奋管理他们的车辆。


    至于人们谈论糟糕或执行不良的驾驶员辅助——这是你的错,因为你在购买前没有测试车辆或优先考虑其他功能。汽车所有权和驾驶特权不是给业余爱好者的。它重达4000磅,经常以每小时70英里的速度行驶——你要承担一些责任。另一方面,骑自行车的人和行人需要更多地尊重这样一个事实:在现代,道路是为汽车而存在的,而不是汽车。188金宝搏维护它们用于混合运输要么是糟糕的公民政策(如印度),要么是考虑到风险因素的糟糕个人选择(如美国)。
    4849个帖子|注册
  14. 说行人死亡率在上升是有误导性的。

    看看过去半个世纪的统计数据,死亡人数(和死亡率)一直在不均衡地下降。大概是由于经济衰退,该指数在2009年左右达到了最低点,此后一直在略高于这一水平的水平上反弹。历史趋势似乎是,在衰退期间大幅下降,在复苏期间小幅上升,随后是总体的下降趋势。这是持续的。
    注册了1497个帖子
  15. 脂肪写道:
    当两个司机都有错误时,人们就会责怪计算机化的司机

    当共享控制的驾驶员都犯错误时,人类会承担责任。

    解释一下。


    主要标题是错误的——它应该是“更少”,而不是“更多”。小标题正确概括了文章的相关内容。Ars需要更好的编辑。
    14个帖子|注册
  16. 这些机器在市场上并不完美,每个人都知道它们不完美。人们希望人类在操作重型机械时表现完美。这些结果是有道理的,但他们的最终结论,即人们自动地认为机器是无可指责的,是不被支持的。

    作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。
    登记了151个帖子
  17. 新星的计划”看是谁开车的节目上周在PBS播出。它很好地观察了该领域的当前状态和对未来发展的猜测。典型的NOVA顶级时尚。
    16765个帖子|注册
  18. 如果汽车是半自动化的,驾驶员就会心不在焉。
    1892个帖子|注册
  19. 他们所关心的危险似乎是这些人的判断通过陪审团的裁决对企业激励的影响。

    但实现全面自动化的动力是强大的、强大的、有利可图的。因此,没有这种危险,激励措施与充分的自主权相一致。未来,我们没有足够的风险投资和研发支出的可能性为零。我们甚至有第一个尝试从测试角度开始运行的项目。
    12726个帖子|注册
  20. barktrees写道:
    这些机器在市场上并不完美,每个人都知道它们不完美。人们希望人类在操作重型机械时表现完美。这些结果是有道理的,但他们的最终结论,即人们自动地认为机器是无可指责的,是不被支持的。

    作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。
    波音被拖下水是活该。他们的系统存在如此大的缺陷,以至于他们不知道如何使其安全。
    16765个帖子|注册
  21. 如果汽车是半自动化的,驾驶员就会心不在焉。
    或者不注意。
    16765个帖子|注册
  22. barktrees写道:
    作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。

    关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章

    https://spectrum.ieee.org/aerospace/avi…开发人员

    作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。
    14个帖子|注册
  23. Thr2hrmrf写道:
    引用:
    当共享控制的驾驶员都犯错误时,人类会承担责任。


    是的,人类承担了责任,因为人类是负责操作飞行器的实体。

    这不是一个谜。然而,有些人认为当他们让自动化系统介入时,他们的责任就结束了。
    这^。把开头的段落放在我对这个话题的思考背景下,我是这样看的:今晚是万圣节,在我住的镇上,今晚会下雨、刮风、寒冷。这是一个非常非常糟糕的夜晚,不适合在街上走,不仅因为舒适度,而且司机发现行人时也会非常糟糕。那么,对于驾驶“驾驶辅助汽车”的司机来说,明智的思考过程是什么呢?司机是应该打开全自动模式,让汽车自行决定是否发现行人,还是谨慎行事,在知道外面的夜晚很糟糕的情况下控制驾驶?责任止于做决定的人,不管“自动驾驶”的潜在武器被认为是多么超级愚蠢。
    11151个帖子|注册
  24. 这辆车没有银行账户让律师去掏空。
    2978个帖子|注册
  25. 这是如何工作的窗口(驱动程序)?
    402个帖子|注册
  26. 请原谅“不是苹果”的类比。但在阅读这篇文章时,我忍不住从汽车转向了其他“机器辅助”的安全措施。188金宝搏维护现代桌锯有一个功能,当它检测到旋转的锯片附近有手指时,就会把锯片放下。假设一个学徒/主管的场景,当学徒失去一根手指是因为三个人都没有干预。哪里是更大的故障点?同样的情况,但只有专业的操作人员和设备。在这种情况下,我倾向于倾向于人类而不是机器。
    2个帖子|注册
  27. 用优步事故来做比较是不合理的。人类司机是一名受雇的员工,他们正在测试一个测试版系统。
    1519个帖子|注册
  28. dgtangman写道:
    barktrees写道:
    作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。

    关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章

    https://spectrum.ieee.org/aerospace/avi…开发人员

    作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。


    还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
    2267个员额登记
  29. Tonkaman写道:
    dgtangman写道:
    barktrees写道:
    作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。

    关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章

    https://spectrum.ieee.org/aerospace/avi…开发人员

    作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。


    还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
    是的,我读到的和看到的关于这个主题的一切都表明波音公司试图从它非常老的机身上挤出最后一次迭代。但这彻底改变了飞行动力学飞行员需要一个全新的型号认证。波音公司试图像前几代飞机一样使用软件来使它飞行,但在软件功能集成方面执行得很差。他们也进行了游说,得到了更少的联邦航空局监督。这显然是一场史诗级的大混战。
    16765个帖子|注册
  30. Tonkaman写道:
    dgtangman写道:
    barktrees写道:
    作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。

    关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章

    https://spectrum.ieee.org/aerospace/avi…开发人员

    作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。


    还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
    是的,我读到的和看到的关于这个主题的一切都表明波音公司试图从它非常老的机身上挤出最后一次迭代。但这彻底改变了飞行动力学飞行员需要一个全新的型号认证。波音公司试图像前几代飞机一样使用软件来使它飞行,但在软件功能集成方面执行得很差。他们也进行了游说,得到了更少的联邦航空局监督。这显然是一场史诗级的大混战。
    我不确定波音的那堆东西是否适用于这个话题,因为有一个微小的区别:没有波音的系统就不能驾驶飞机,但在没有自动驾驶系统的情况下,你肯定可以驾驶特斯拉或其他驾驶辅助汽车。
    11151个帖子|注册
  31. dgtangman写道:
    作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。


    在第二起737 Max空难中,飞行员知道MCAS。他们确实像他们应该做的那样通过关闭修整马达来关闭它。问题是,在那个时候,飞机的边角被设置得太远了,但以飞机的速度飞行飞行员身体不够强壮旋转手动修边轮使修边回到它应该在的位置。因此,他们尝试重新启动修剪电机,这样他们就可以使用另一个控件重置修剪,这也重新激活了MCAS。
    登记的帖子有229个
  32. 脂肪写道:
    当两个司机都有错误时,人们就会责怪计算机化的司机

    当共享控制的驾驶员都犯错误时,人类会承担责任。

    解释一下。

    我们都会犯错。这个算我的——我为剪辑时的粗心大意道歉。
    8941个帖子|注册
  33. 人类应该更清楚。

    唯一能让人推卸责任的借口就是汽车坏了,而且保养得很好。

    上周,NOVA(美国PBS电视新闻节目) https://www.pbs.org/wgbh/nova/video/look-whos-driving/ 做了一期关于汽车自动化的节目。NOVA展示了许多现实世界中人类司机和行人做蠢事的例子。他们还解释了汽车自动化的5个级别之间的区别。至少要20年,5级车才能成为主流。
    由真理超级预兆忍者上面。

    下周,前线将会做一集关于人工智能的节目。 https://www.pbs.org/wgbh/frontline/film…age-of-ai / 11月5日。

    今晚要注意孩子们。像慢吞吞的三级车一样开车。
    3436个帖子|注册
  34. Tonkaman写道:
    dgtangman写道:
    barktrees写道:
    作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。

    关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章

    https://spectrum.ieee.org/aerospace/avi…开发人员

    作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。


    还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
    是的,我读到的和看到的关于这个主题的一切都表明波音公司试图从它非常老的机身上挤出最后一次迭代。但这彻底改变了飞行动力学飞行员需要一个全新的型号认证。波音公司试图像前几代飞机一样使用软件来使它飞行,但在软件功能集成方面执行得很差。他们也进行了游说,得到了更少的联邦航空局监督。这显然是一场史诗级的大混战。
    我不确定波音的那堆东西是否适用于这个话题,因为有一个微小的区别:没有波音的系统就不能驾驶飞机,但在没有自动驾驶系统的情况下,你肯定可以驾驶特斯拉或其他驾驶辅助汽车。
    我认为这是切题的,因为在波音的案例中,最初的海报试图指责人类飞行员,而不是人类系统开发人员(这是无人驾驶汽车“指责计算机”的真实情况)。188金宝搏维护
    16765个帖子|注册
  35. “行人死亡人数总体上呈上升趋势,因为汽车对司机来说越来越安全,但对其他人来说却越来越危险。”188金宝搏维护

    与十年前相比,现在越来越多的人在街道上随意过马路,而不是走人行横道,难道只有我一个人看到了吗?我感觉整体上愚蠢的增加——在使用自动化和步行方面——正在导致更多的死亡。
    3个帖子|注册
  36. 会不会是这些规避系统和警报导致了部分问题?在我妻子的新车里,驶离车道的时候,车灯会亮起来,然后拉一下方向盘,把你拉回车道。当它发生在州际公路上时,我正在开车,唧唧声消失了,然后是灯,我低头看了看灯是什么,然后出现了拖船,我纠正了,因为“拖船”比我觉得应该的要强大得多。这样做的结果是我越过了警戒线进入了紧急车道,导致了另一声唧唧/轻/拖。

    我经历的第二件事是在租来的郊区,因为道路建设和许多错误的线路和车道重新绘制,汽车变得非常混乱,几乎导致事故。

    也许当这些事件发生在一辆车里时,人们正在做我所做的事情,低头看仪表盘,弄清楚是什么在哔哔/眨眼,然后撞上了什么东西。只是一个想法。

    PS -在我妻子的丰田,感谢上帝,你可以关闭车道偏离。这是一次性的,然后当你启动汽车时,它会使它失效。
    903个帖子|注册
  37. 人类司机总是有错的。


    我不在乎下面的视频是否被播放,司机没有注意到,在车祸中会有过错。


    https://www.youtube.com/watch?v=fc-ZWkcltec
    2549个帖子|注册
  38. 机器就是工具。驾驶员是操作员,应该了解工具的局限性。司机要对他/她能控制的结果负责。工具制造商负责使其操作安全,并为操作人员提供安全操作所需的信息。

    行人有时要受责备。很多时候,重要的不是你在不可避免的坏结果之后所做的决定,而是你在此之前所做的选择。

    最后,除了在法律问题上,试图将过错完全归咎于一个地方是没有用的。
    2973个帖子注册
  39. 我不知道像特斯拉这样的汽车公司怎么能继续拥有一个非常先进的二级ADAS系统,同时当这些系统出现故障时,却不承担任何责任。

    不仅仅是特斯拉,还有其他拥有非常先进的Level 2系统的公司。

    问题是,这些系统可以很好地工作,当一个人几乎不开车的时候,真的希望他承担100%的监督能力吗?

    我认为我们没有意识到这是一个多么大的问题,因为当这些设备部分或完全使用时,很少有关于崩溃的报告。

    建造这些系统的公司没有被要求记录这些事故数据,而且他们中的绝大多数没有联网的汽车,所以这是一个不可能的要求。188金宝搏维护目前唯一记录这些数据的汽车公司是特斯拉。特斯拉每季度都会自愿发布这些数据,但它们往往会做出令人震惊的假设。我觉得他们做的比较不公平。

    最大的问题是,很多这些系统并没有想象的那么好。

    我们从行人检测系统的AAA测试中亲眼看到,当我们最需要它们的时候,它们却失败了。

    我不是说我们应该立即转向共享责任模式。我们还没有达到大多数汽车的水平。188金宝搏维护

    但是,如果公司想继续宣传他们的车辆具有X、Y或Z的能力,他们就应该在记录数据的同时承担部分责任。这样我们就有办法知道它们在现实世界中的表现。

    也许这样他们就能通过相当困难的行人检测测试。

    问题是特斯拉在他们的系统上做得太过分了,但仍然把100%的责任放在司机身上。其他因风险太大而不愿这么做的汽车公司现在似乎也在效仿他们的做法。到2020年,我们将会有相当多的高度先进的L2系统上路,但所有的责任仍在司机身上。

    特斯拉将在自动驾驶仪上安装基于城市的导航系统,所以它将在十字路口转弯,在红绿灯前停车,同时仍然有人类司机100%负责。我不认为这有什么用。我认为特斯拉也不会,因为他们开始推出特斯拉保险。我想他们知道,随着驾驶越来越自动化,保险公司将开始反击。

    当然,我知道这应该是一个暂时的情况,直到特斯拉获得监管机构批准在无人监管的情况下自动驾驶。一旦他们明白了这一点,就会从100%人为的错误变成100%车辆的错误。

    但是,我认为我们将在至少5年甚至更长时间内陷入这种中间状态。那里的系统会变得更好,但偶尔也会失败。我们怎么能因为一辆99%的事情都做对的汽车而责怪人类呢?

    一群人会说不要考虑这种情况,把L2系统限制为只有一些基本的驾驶功能。

    另一组人认为司机可以承担100%的责任,即使他们基本上是未经训练的安全司机。

    我个人认为存在某种中间地带,既能让这些系统在现实世界中挽救生命,又能降低制造商总是将100%的责任归咎于人类司机的风险。

    最终的目标是减少死亡人数,我认为混合模式最有可能做到这一点。这只适用于超越L2车辆的原始意图的高级L2车辆。
    730个帖子|注册

你必须置评。

通道Ars Technica