9月18日,谷歌、Facebook(脸书)和Twitter(推特)三家科技公司再次前往美国国会参加听证。这三家科技公司在听证中表示,他们正采取更多措施,在平台上阻止和移除可能引发严重事故的暴力和极端主义内容。

听证会上,科技公司表示,更多技术工具的使用,能让平台对暴力和极端内容采取的行动速度更快。

据路透社9月19日报道,批评人士认为,支持极端主义团体的暴力视频和帖子在社交媒体网站上不能被立刻移除。对此,民主党参议员Richard Blumenthal表示,社交媒体公司需要采取更多措施阻止暴力内容。

Facebook的全球政策管理负责人Monika Bickert表示,其软件检测系统已经“利用人工智能将Facebook直播上发现暴力内容的速度减少到平均12秒,过去几个月内,平均检测时间缩短了90%”。

2019年5月的新西兰恐袭事件中,一位枪手杀害了51人并将其袭击全程放在他的Facebook页面上进行直播,引发国际社会抗议。此次事件之后,Facebook称其暂时屏蔽了违禁用户进行视频直播。

Bickert还称,Facebook希望执法机构能够帮助他们获取“能够帮助训练工具的视频”,改善机器学习以检测暴力视频。

另据华尔街日报报道,Facebook首席执行官马克·扎克伯格将于当地时间9月19日再度前往美国国会,宣讲他对温和互联网监管的观点。这一消息最早被网站Axios披露。

一位Facebook发言人对此表示,“马克将在华盛顿特区会见政策制定者,与他们讨论未来的互联网监管问题。没有计划的公开行动。”

除了Facebook之外,9月18日的听证会上,Twitter的公共政策主管Nick Pickles表示,平台自2015年8月至2018年底已经禁用了超过150万个宣传暴力恐怖主义的账号,其中“超过90%的的这些账号禁用都是由于我们采取了积极措施”。

Alphabet子公司谷歌的全球信息政策总监Derek Slater表示,答案是“技术与人的结合,技术可以越来越准地发现模式,人可以帮助处理正确的细节”。

谷歌子公司Youtube2019年来每3个月删除900万条视频,其中87%由人工智能标记。