最近,多地用户反映骑行共享单车时,车辆在行进途中突然自动锁车,有人因此失去平衡摔倒,甚至骨折受伤。央视、《天津日报》等媒体跟进调查后发现,哈啰、青桔、美团等主流平台均设有“长时间未移动自动关锁”的机制——哈啰30分钟,青桔和美团1小时。平台解释,这是为了防止用户忘记还车、造成资源浪费的“智能保护机制”。可问题是,当用户等红灯、上坡乏力或短暂驻足时,系统也可能判定“静止”,进而远程锁死车轮。没有预警,没有缓冲,车轮瞬间抱死,骑行者猝不及防。
这已不是简单的“使用不便”,而是实实在在的安全威胁。
表面上看,这是共享单车的技术设定争议,但往深处想,它折射出一个更普遍的问题:当智能系统开始替我们做决定,它的判断边界在哪里?它的容错率,又该由谁来承担?
今天的物联网设备早已不只是“能联网的机器”,而是具备感知、判断和执行能力的“决策者”。共享单车的锁车逻辑,正是基于多模态传感器融合的判断系统:通过加速度计识别车身是否震动,GPS确认位置是否变化,霍尔传感器检测锁舌状态,再由云端算法综合判断“是否静止”。理论上,这套机制足够精密——只有在车辆真正长时间不动、信号正常、时间超限的情况下,才会触发锁车。
但现实远比算法复杂。当多个车辆共享一个二维码(“一码多车”),系统可能误将正在骑行的车识别为“前一订单未还”,直接远程锁死;当GPS信号漂移,或传感器短暂失灵,系统也可能误判静止;更别说用户手机拦截了提醒短信,平台便以此推卸告知义务。技术本应服务人,如今却在关键一刻反噬使用者。
这并非孤例。在更广阔的智能交通领域,类似“系统误判”的悲剧早已上演。2025年,上海一位车主在雨天行驶时,智能驾驶系统误将路面反光识别为行人,紧急刹停导致后车追尾;湖北仙桃一起高速追尾事故中,车辆以百公里时速撞上静止货车,AEB系统全程未启动——调查发现,系统根本不识别静止障碍物。山东高速更曾发生智驾模式下撞上故障车致两人死亡的惨剧,系统在碰撞前一秒退出控制,将责任“甩锅”给驾驶员。美国法院已在类似案件中裁定车企承担33%责任,认为其算法缺陷与警示不足构成产品责任。
这些案例背后,是同一个逻辑困境:技术提供方将功能命名为“智驾”“自动锁车”,暗示其可靠性,却在出事时强调“辅助性质”,把风险转嫁给用户。消费者以为自己在使用一项便利工具,实则成了算法试错的代价承担者。
共享单车的自动锁车,看似小事,实则同样踩中了这条红线。平台在服务协议中单方面免责,声称“系统自动操作,概不负责”,可《消费者权益保护法》明确规定,经营者有义务保障服务的安全性。若因系统缺陷导致人身伤害,这种免责条款本身就不具备法律效力。遗憾的是,目前尚无公开的司法判决确认平台需为此类事故担责。已有受伤用户通过投诉交通部门获得退卡或补偿,但真正的法律追责仍处于空白。
更值得警惕的是,我们正生活在一个“系统越来越聪明,责任越来越模糊”的时代。智能门禁误锁困人、电梯自动识别故障停运、充电桩无故断电……当越来越多的基础设施依赖算法决策,我们必须追问:这些系统的判断是否可解释?出错时是否有追溯机制?数据是否由第三方可验证?
武汉城管部门已出手整治“一码多车”,从源头减少误判可能。这是进步,但远远不够。行业亟需建立统一的安全标准:比如,强制要求自动锁车前必须通过APP弹窗、语音或震动多重提醒;明确禁止在车辆移动状态下执行远程锁车;引入第三方数据存证机制,打破平台对骑行数据的垄断。唯有如此,才能让“智能”真正服务于安全,而不是成为推责的借口。
回到那些突然锁死的共享单车,它们像一面镜子,照见了技术便利背后的隐忧。我们拥抱智能化,不是为了把命运交给代码,而是为了让生活更可控、更安全。当一辆单车都能在毫无预警的情况下夺走你的平衡,那我们对其他更复杂的智能系统,又该抱持怎样的警惕?
下次扫码骑行前,不妨多问一句:这辆车,真的懂我吗?它的“智能”,是否留足了容错的空间?

