|
. _3 R% W' @4 ?: w# V不管说得多么高级,用多么复杂的辞藻来描述,都不能回避一个问题,你所描述的技术有没有约束?所有的自动化产线,都有安全装置,包括但不限于自动急停装置,警报等,而且大部分都有安全栅栏,一旦有人打开一扇门,不管是不是会造成潜在的危险,产线自动停止。目的就是避免出现任何意外,这个意外就是在程序设计中没有考虑到的情况。这是设计本质是就是把环境规范得越简单越好,越单纯越好。0 A- `' U- q+ B
ai能够满足人类得无线期待吗?能够处理任何意外吗?永远不能。如果出现了意外,谁来承担后果呢?比如智能驾驶,车掉进了马路中央的处于紧急维修中的沟里面,谁来承担责任?修路的?还是车主?还是生产汽车的公司?恐怕大家都想让汽车公司承担责任吧。任何一个汽车公司都要倒闭。福特裁撤自动驾驶部门停止自动驾驶的研发就是因为试验车出了几次事故才放弃的。
$ b. u7 @ w8 v; l$ F; J7 k由于不能预判将来会发生的不可预知的事件,也就无法预判引起的反应和后果是什么,这必然会导致将来发展ai必须有边界和约束,否则就是人类设计的ai反过来毁了人类自己。( Y1 e, o7 h! j ?
这是悖论,但是很显然,这是真的。
5 H( H R$ q2 V) Z6 a |
|