今晚,美国司机撞死的行人将比一年中任何一个晚上都多。越来越多的人在昏暗的光线下行走,这使得万圣节成为最受欢迎的节日这是一年中危险的夜晚行人。
随着汽车对司机来说变得更安全,行人死亡人数总体上呈上升趋势188金宝搏维护但对其他人来说更危险.复杂的行人检测系统在汽车上越来越普遍,但它们的表现并不是特别好。188金宝搏维护有些人得分了对更简单的测试很感兴趣在光天化日之下,但他们确实如此进展不太好在更困难的条件下,比如弱光。
当一个司机和一辆自动驾驶汽车共同承担行人死亡的责任时,人们如何分配责任?本周发表在《自然人类行为》(Nature Human behavior)杂志上的一项研究表明,人们可能会把愤怒集中在与他人共享控制权的情况下。作者认为,这可能导致对共享控制车辆的安全监管不足。
分担责任?
尽管全自动驾驶汽车的广泛应用还有待进一步发展188金宝搏维护在地平线从紧急情况下的干预到特斯拉的自动驾驶套件,一系列先进的驾驶员辅助系统(ADAS)将驾驶员的部分安全责任转移到了汽车身上。
研究人员埃德蒙·阿瓦德和他的同事们写道:“我们正在进入一个人类和机器共享控制的微妙时代。”了解人们如何应对这种情况的道德影响,对于计算制造商的预期责任,以及预测法律系统应该如何应对司机和汽车共享控制情况下的死亡,都至关重要。
制定这些政策的人会作何反应,谁也说不准。根据新闻报道2016年特斯拉自动驾驶仪死亡和一辆Uber自动驾驶汽车撞死了一名行人阿瓦德和他的同事们认为,人们似乎更倾向于把责任归咎于人类司机,而不是汽车。188金宝搏维护他们问道:“这种模式是坠机情况和媒体环境的侥幸吗?”“还是它反映了某种更深层次的心理因素,可能会影响我们对人机联合行动的反应,特别是当人机组合共同控制一辆汽车时?”
错误判断vs过失
为了验证这一点,Awad和他的同事们构建了一系列描述共享控制汽车撞死行人的小片段。这些小插图描述了一系列单人或双司机汽车的选择,从单人司机到全自动汽车(在小插图中称为“机器司机”)。
介于两者之间的是双驱动选择,一个主要的人类驾驶员和一个辅助的机器驾驶员(很像丰田的监护人)或一个主要的机器驾驶员和次要的人类驾驶员(比如特斯拉的自动驾驶仪)。还有人与人配对的选择——比如让人们学习驾驶的双控汽车和机器配对。188金宝搏维护
研究人员探索了人们如何在这些情况下分担责任。首先,每个人都要阅读一种不同驾驶员组合的描述,这样每个参与者只需要考虑一种人机联合驾驶的汽车。然后,他们阅读了两种不同的车祸场景,这两种场景都描述了司机的失误导致行人死亡。但这两种情况的不同之处在于,是两个司机都犯了错误,还是只有一个司机犯了错误。
在“不良干预”的情况下,主驾驶员(无论是人还是机器)做出了避免撞到行人的驾驶决定,但副驾驶员干预时做出了错误的决定,导致了碰撞。在糟糕的干预中,第二驱动才是真正的罪魁祸首是有道理的,因为他们忽略了主要驱动的正确行为。
这种预期与人们的反应相符。当参与者看到这个场景,并对每个司机的责任程度和他们造成的死亡程度进行打分(从1到100)时,副司机承担了大部分责任。无论副驾驶员是人还是机器,情况都是如此。
然而,在“错过干预”的情况下,情况看起来有点不同。在这些情况下,主要驾驶员是做出错误决定的人,但次要驾驶员不会干预以挽救局面。在这些场景中,两个驱动程序都犯了错误。
在这些场景中,参与者确实会将部分责任归咎于双方司机,但人类承担的责任比汽车更多。当人犯了最初的错误,而汽车未能纠正时,情况是如此;当汽车犯了错误,而人未能纠正时,情况也是如此。这表明,参与者并没有根据司机是否打了一个错误的电话或只是没有干预来推卸责任;相反,他们根据司机的类型来推卸责任。
这些结果在不同的研究中得到了重复,包括一项使用了不同的参与者样本的复制,以及两项调整了小短文的呈现方式,使它们看起来更像报纸文章。
对危险反应不足
结果可能是直觉的,但科学是检查直觉是否得到实际数据的支持。人们似乎明白,自动驾驶汽车在灵活应对一系列情况方面有相当大的限制,而更灵活的驾驶员——人188金宝搏维护类——应该努力弥补这一点。
这项研究并不是最终结论。首先,参与者知道他们读的不是真实的故事,这可能会影响他们的答案,但作者指出,这些回答确实符合公众对特斯拉和优步事故的反应。“尽管采用自动驾驶汽车可能存在许多心理障碍,”他们写道,“但公众对双重错误的过度反应不太可能是其中之一。”
相反,研究人员认为,这可能有风险under-reaction.如果对自动驾驶汽车的监管是基于公众压力和陪审团的决定,那么汽188金宝搏维护车制造商可能很容易就能洗脱责任。这可能会减少制造商改进系统的压力。
阿瓦德和他的合著者写道,历史上有一个类似的例子:当车内人员在碰撞中受伤时,人们过去常常忽视汽车制造商的责任,因为他们把碰撞归咎于驾驶员的失误。他们指出:“为了将‘耐撞性’的概念引入法律体系,自上而下的监管是必要的。”同样,他们认为,自动驾驶汽车的安全可能需要自上而下的安全监管。
自然的人类行为, 2018年。DOI:10.1038 / s41562 - 019 - 0762 - 8(对必须).
65年读者评论
或者换句话说,我们甚至不知道计算机是否有能力做出正确的决定/检测场景,而在大多数情况下,人类理论上是有能力的,但在集中注意力或其他方面失败了。
如果不是机器和人类配对,而是驾驶教练和新的人类驾驶员配对,新驾驶员有时是主驾驶员,教练有时是主驾驶员,结果会和人类和机器配对的结果相似吗?
是的,人类承担了责任,因为人类是负责操作飞行器的实体。
这不是一个谜。然而,有些人认为当他们让自动化系统介入时,他们的责任就结束了。
最后一次编辑Thr2hrmrf2019年10月31日(星期四)下午12:51
如果不是机器和人类配对,而是驾驶教练和新的人类驾驶员配对,新驾驶员有时是主驾驶员,教练有时是主驾驶员,结果会和人类和机器配对的结果相似吗?
“…人类对机器负有最终责任。”——现在
也许经销商/销售商应该就这个话题向每一位客户做一个简短的介绍,把要点说清楚,而不是用几段法律术语说“我们的营销部门签的支票比你的屁股能兑现的多,全都怪你”。虽然这完全合法地覆盖了制造商,但结果很明显:潜水者被营销所骗,行人死亡。
当共享控制的驾驶员都犯错误时,人类会承担责任。
解释一下。
这不是已经开始了吗?
有多少次特斯拉为自动驾驶系统开启时的车祸承担责任?然而,他们仍在继续发布不成熟的AV功能,如智能召唤。
这不仅仅是因为公众没有给制造商施加足够的压力。一些首席执行官在Twitter上直接指责自己的客户,然后用个人崇拜来保护自己免受批评。
让我们先承认我们已经实现了上面的预言,然后也许我们可以着手解决它。
在特殊情况下,我得到了一个手动变速箱的跑车,它有一个自动“希尔启动”功能,我读手册如何允许您2秒,将刹车如果它认为你是在齿轮和一个角度,让你滚向相反的方向从期望的旅行,这样你就可以避免向后滚动试图拉开(或远期备份)到任何人,“开始好像你在正常的平地”。
然后我开始让车熄火,猛撞自己,然后出乎意料地后退了很多次,就像我学到的那样,松开离合器直到抓住,然后从刹车到加油,当我松开离合器时稍微加速一点——这在平坦的地面上我没有任何问题。
在阅读了更多的论坛和试验后,我发现电脑正在“帮助”我在某种程度上,这让我在不知不觉中与电脑争夺对汽车的控制权.我试着用适量的汽油把它开走,而它“帮助”我不滚动盘式刹车仍然适用,在这一点上它熄火,因为汽车不能移动。
实际的程序似乎是希望你在剩下的2秒内松开刹车,提高转速,然后非常缓慢地松开离合器,这样在2秒完全过去,你可以开车之前,它不会抓住太多东西。
“有帮助的”计算机只有在按人类期望的方式运行时才有帮助。当它以一种与预期不同的方式运行时(无论预期是对是错),它将导致比不存在时更严重的问题。
最后一次编辑mmiller72019年10月31日(星期四)下午12:59
我讨厌参与“那是什么”的情况下,但似乎有很多容易摘的水果,当涉及到改善车辆与车辆碰撞的结果,以及车辆与乘客碰撞的结果。特别是许多卡车和suv的高骑保险杠。
与责备有关的:
就我个人而言,无论碰撞的情况如何,我都可以把责任推卸给被吊起的车辆的司机,无论是司机还是路上的技术。
我是冷酷无情,但我相信,当一个人坐上一辆在公共场所不为行人或其他人准备的私家车时,一定会有道德风险被接受。我怀疑算法将如何解释这些因素。关于自动驾驶汽车在某些可预见的条件下的计划行为,我(我怀疑本论坛的其他人也遇到过有趣的道德问题。188金宝搏维护
当共享控制的驾驶员都犯错误时,人类会承担责任。
解释一下。
基本上;
这是人类对系统的指责。
这个是人要为发生的事情负责因为他们是对飞行器的操作负责的实体。
(排除了真正的故障,但司机仍有责任,他们可以要求制造商为故障负责,但不包括撞到行人的结果,因为人类应该负责注意控制车辆,而不是自动系统)
最后一次编辑Thr2hrmrf2019年10月31日(星期四)下午1:04
在无人驾驶系统完全脱离人类干预之前,情况应该是这样的。然而,正如我们所看到的,驾驶辅助系统倾向于释放司机更多的注意力和更少的警觉。
编辑-输入错误
最后一次编辑BradTheGeek2019年10月31日(星期四)下午1:34
我很容易看到司机们像人一样思考、对待、行动和反应未来的自动驾驶汽车。我认为他们还不够好,还没有得到这份荣誉。
事实上,如果你问我的话,我的新车有点傻。
或者换句话说,我们甚至不知道计算机是否有能力做出正确的决定/检测场景,而在大多数情况下,人类理论上是有能力的,但在集中注意力或其他方面失败了。
是的,只是简单的逻辑应用。电脑补充剂使他们的司机更容易承担责任,因为增加了情景感知能力,以及司机不太注意和依赖电脑的可能性。
我责怪每一个在黄昏/黎明/恶劣天气条件下开着自动大灯的司机,因为我知道他们没有以任何程度的勤奋管理他们的车辆。
至于人们谈论糟糕或执行不良的驾驶员辅助——这是你的错,因为你在购买前没有测试车辆或优先考虑其他功能。汽车所有权和驾驶特权不是给业余爱好者的。它重达4000磅,经常以每小时70英里的速度行驶——你要承担一些责任。另一方面,骑自行车的人和行人需要更多地尊重这样一个事实:在现代,道路是为汽车而存在的,而不是汽车。188金宝搏维护它们用于混合运输要么是糟糕的公民政策(如印度),要么是考虑到风险因素的糟糕个人选择(如美国)。
看看过去半个世纪的统计数据,死亡人数(和死亡率)一直在不均衡地下降。大概是由于经济衰退,该指数在2009年左右达到了最低点,此后一直在略高于这一水平的水平上反弹。历史趋势似乎是,在衰退期间大幅下降,在复苏期间小幅上升,随后是总体的下降趋势。这是持续的。
当共享控制的驾驶员都犯错误时,人类会承担责任。
解释一下。
主要标题是错误的——它应该是“更少”,而不是“更多”。小标题正确概括了文章的相关内容。Ars需要更好的编辑。
作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。
但实现全面自动化的动力是强大的、强大的、有利可图的。因此,没有这种危险,激励措施与充分的自主权相一致。未来,我们没有足够的风险投资和研发支出的可能性为零。我们甚至有第一个尝试从测试角度开始运行的项目。
作为反例,看看波音公司(Boeing)因787Max飞机失事而被拖到泥水里的例子吧,尽管飞行员或副驾驶本可以纠正机器错误。
关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章
https://spectrum.ieee.org/aerospace/avi…开发人员
作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。
是的,人类承担了责任,因为人类是负责操作飞行器的实体。
这不是一个谜。然而,有些人认为当他们让自动化系统介入时,他们的责任就结束了。
关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章
https://spectrum.ieee.org/aerospace/avi…开发人员
作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。
还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章
https://spectrum.ieee.org/aerospace/avi…开发人员
作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。
还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章
https://spectrum.ieee.org/aerospace/avi…开发人员
作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。
还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
在第二起737 Max空难中,飞行员知道MCAS。他们确实像他们应该做的那样通过关闭修整马达来关闭它。问题是,在那个时候,飞机的边角被设置得太远了,但以飞机的速度飞行飞行员身体不够强壮旋转手动修边轮使修边回到它应该在的位置。因此,他们尝试重新启动修剪电机,这样他们就可以使用另一个控件重置修剪,这也重新激活了MCAS。
当共享控制的驾驶员都犯错误时,人类会承担责任。
解释一下。
我们都会犯错。这个算我的——我为剪辑时的粗心大意道歉。
唯一能让人推卸责任的借口就是汽车坏了,而且保养得很好。
上周,NOVA(美国PBS电视新闻节目) https://www.pbs.org/wgbh/nova/video/look-whos-driving/ 做了一期关于汽车自动化的节目。NOVA展示了许多现实世界中人类司机和行人做蠢事的例子。他们还解释了汽车自动化的5个级别之间的区别。至少要20年,5级车才能成为主流。
由真理超级预兆忍者上面。
下周,前线将会做一集关于人工智能的节目。 https://www.pbs.org/wgbh/frontline/film…age-of-ai / 11月5日。
今晚要注意孩子们。像慢吞吞的三级车一样开车。
关于这个主题你应该多读些书。首先,你可能会想到737 Max。我推荐一篇IEEE Spectrum的文章
https://spectrum.ieee.org/aerospace/avi…开发人员
作者是一名经验丰富的飞行员和软件工程师。他指出,波音公司的一些故障使得坠机事件几乎不可避免,其中包括飞行员没有接受过培训,不知道现有的737改型和带有MCAS的737 Max之间的区别。MCAS是两架737坠毁的原因。证据表明,飞行员试图推翻MCAS,但不知道他们需要关闭它,不知道如何关闭它,或无法在他们可用的几秒钟内关闭它。
还有一种情况是,飞行员按照波音公司的指示关闭了系统,然后系统在飞行员不知情的情况下自动打开了。
与十年前相比,现在越来越多的人在街道上随意过马路,而不是走人行横道,难道只有我一个人看到了吗?我感觉整体上愚蠢的增加——在使用自动化和步行方面——正在导致更多的死亡。
我经历的第二件事是在租来的郊区,因为道路建设和许多错误的线路和车道重新绘制,汽车变得非常混乱,几乎导致事故。
也许当这些事件发生在一辆车里时,人们正在做我所做的事情,低头看仪表盘,弄清楚是什么在哔哔/眨眼,然后撞上了什么东西。只是一个想法。
PS -在我妻子的丰田,感谢上帝,你可以关闭车道偏离。这是一次性的,然后当你启动汽车时,它会使它失效。
我不在乎下面的视频是否被播放,司机没有注意到,在车祸中会有过错。
https://www.youtube.com/watch?v=fc-ZWkcltec
行人有时要受责备。很多时候,重要的不是你在不可避免的坏结果之后所做的决定,而是你在此之前所做的选择。
最后,除了在法律问题上,试图将过错完全归咎于一个地方是没有用的。
不仅仅是特斯拉,还有其他拥有非常先进的Level 2系统的公司。
问题是,这些系统可以很好地工作,当一个人几乎不开车的时候,真的希望他承担100%的监督能力吗?
我认为我们没有意识到这是一个多么大的问题,因为当这些设备部分或完全使用时,很少有关于崩溃的报告。
建造这些系统的公司没有被要求记录这些事故数据,而且他们中的绝大多数没有联网的汽车,所以这是一个不可能的要求。188金宝搏维护目前唯一记录这些数据的汽车公司是特斯拉。特斯拉每季度都会自愿发布这些数据,但它们往往会做出令人震惊的假设。我觉得他们做的比较不公平。
最大的问题是,很多这些系统并没有想象的那么好。
我们从行人检测系统的AAA测试中亲眼看到,当我们最需要它们的时候,它们却失败了。
我不是说我们应该立即转向共享责任模式。我们还没有达到大多数汽车的水平。188金宝搏维护
但是,如果公司想继续宣传他们的车辆具有X、Y或Z的能力,他们就应该在记录数据的同时承担部分责任。这样我们就有办法知道它们在现实世界中的表现。
也许这样他们就能通过相当困难的行人检测测试。
问题是特斯拉在他们的系统上做得太过分了,但仍然把100%的责任放在司机身上。其他因风险太大而不愿这么做的汽车公司现在似乎也在效仿他们的做法。到2020年,我们将会有相当多的高度先进的L2系统上路,但所有的责任仍在司机身上。
特斯拉将在自动驾驶仪上安装基于城市的导航系统,所以它将在十字路口转弯,在红绿灯前停车,同时仍然有人类司机100%负责。我不认为这有什么用。我认为特斯拉也不会,因为他们开始推出特斯拉保险。我想他们知道,随着驾驶越来越自动化,保险公司将开始反击。
当然,我知道这应该是一个暂时的情况,直到特斯拉获得监管机构批准在无人监管的情况下自动驾驶。一旦他们明白了这一点,就会从100%人为的错误变成100%车辆的错误。
但是,我认为我们将在至少5年甚至更长时间内陷入这种中间状态。那里的系统会变得更好,但偶尔也会失败。我们怎么能因为一辆99%的事情都做对的汽车而责怪人类呢?
一群人会说不要考虑这种情况,把L2系统限制为只有一些基本的驾驶功能。
另一组人认为司机可以承担100%的责任,即使他们基本上是未经训练的安全司机。
我个人认为存在某种中间地带,既能让这些系统在现实世界中挽救生命,又能降低制造商总是将100%的责任归咎于人类司机的风险。
最终的目标是减少死亡人数,我认为混合模式最有可能做到这一点。这只适用于超越L2车辆的原始意图的高级L2车辆。
你必须登录或创建帐户置评。