北京铁警刘鹏颐为旅客提供帮助 毕雨晨摄 摄
刘鹏颐家住北京通州,回家仅需1个小时的车程,但投身守护平安春运的大潮,他成了万千旅客团圆路上的“逆行者”。春运是铁路民警一年中最忙的时候,但这种忙碌很有意义,每次接到旅客报警求助,看着旅客着急,他也着急,为旅客排忧解难后目送旅客踏上归途,他才放心。
候车大厅东侧有一间警务室,执勤民警办公休息都在这里。“刘队年轻,有责任心,工作时他都在站区一遍遍地巡逻巡视,总有使不完的劲”,执勤一队队员陈晨和刘鹏颐年龄相仿,平日里工作搭档默契,在他心里,刘鹏颐是朋友也是榜样。
中午时分,派出所食堂将盒饭送到了执勤室,刘鹏颐是最后一个回来吃饭的。他坐下的第一件事是从腰间取下电台放在桌前,方便有警情时能第一时间回应出警。执勤室里没有多余的杂物,办公桌内侧整齐地摆着一排正在充电的电台。饭吃到一半,电台里传来警情,一个小男孩在站区和家人走散了,刘鹏颐放下饭盒,拿起电台一边询问孩子的衣着特征,一边快速走出了执勤室。
“春运车站旅客多,小孩调皮,父母稍不留意就会走散了”,这样的求助警情时有发生,刘鹏颐处理起来游刃有余,他先联系了车站广播,发动旅客帮助寻找,然后又部署队员分头行动,重点留意卫生间和商铺,很快孩子就找到了。
火车站不同于其他公共场所,旅客丢了行李,有家人走散了,如果不能尽快帮助他们找回来,就会耽误行程。为此,刘鹏颐工作中一直坚持两个信条,接警要快,处警要准。快源自于责任心,准靠的是长此以往的工作经验。
有一次,刘鹏颐接到旅客王某报警,称其候车期间丢失了一个笔记本电脑,具体丢失位置想不起来了,由于列车马上就要检票了,王某十分着急。安抚王某情绪得知他的行动路线后,刘鹏颐和队员分头前往安检处和候车区寻找,最终在候车座椅上找到了王某遗落的笔记本电脑。
作为派出所执勤警务一队队长,刘鹏颐深知表率作用的重要性,工作总是干在前、冲在先。
2022年,在他的带领下,全队共抓获网逃15人,位居全所第一。“百日行动”期间,他和同事陈晨在北京南站东进站口巡视时,查获了一名被公安机关网上通缉的在逃人员张某。通过审查,张某交代,他准备乘坐高铁前往安徽,还约好了程某和刘某一同前往。随后,按照张某的指认,刘鹏颐在站区找到了程某和刘某。经查,三人均因涉嫌严重扰乱公共场所秩序被安徽警方上网通缉。
“百日行动”后,刘鹏颐被授予个人三等功的荣誉。从警以来,他已荣获个人三等功2次,个人嘉奖4次,优秀共产党员3次。
今年除夕,刘鹏颐还将在岗位上度过。虽然不能回家陪伴家人,但和同事们并肩作战,守护团圆的万家灯火,也别有一番年味。(完)
人工智能如何做到可信、可用?专家热议:把责任归结到个人****** 中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短? 近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。 ![]() 中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。 “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。 清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。 “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。 瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。 “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。 将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候? 高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。 高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。” “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。 “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。 2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
|