本篇文章1339字,读完约3分钟
六西格玛培训 【科技在线】这个科技信息在北京时间5月16日的早间新闻中说,facebook说人工智能正在清理旧帖子的坏拷贝。
facebook称,今年第一季度,对基地组织、伊斯兰国( isis )等恐怖主义相关帖子190万条采取了强制措施。 加强监督通常意味着客户的帖子被删除、账户被暂停或客户无法登录到facebook。 这样,机器学习得到改善,无论是新入住还是在facebook平台上存在时间以上,企业都能找到越来越多的与恐怖主义相关的照片。
据报道,上个季度,97%的恐怖主义相关帖子是facebook自己发现的,不是顾客举报。 facebook将此数据作为第一份社区标准执行报告的一部分。 这份报告介绍了facebook企业从去年10月到今年3月间进行的文案监督活动。
报告的其他副本包括:。
- -照片暴力:包括照片暴力在内的投稿占总浏览数的0.22%-0.27%,从上一季度的0.16增加到0.19%。 这家企业对340万个帖子采取了行动,高于上个季度的120万个帖子。 暴力帖子的增加似乎与叙利亚冲突的加剧成正比。
- -裸体与性:关于裸体或性的帖子占总浏览次数的0.07%-0.09%,从上一季度的0.06%上升到0.08%。 这家企业对2100万个帖子采取了行动,与上个季度基本相同。
- -海特演讲: facebook对250万份违反海特演讲规则的帖子采取了行动,比上季度增加了56%,其中62%由顾客举报。
- -垃圾邮件: facebook针对8亿3700万个垃圾邮件帖子采取了行动,比上一季度增加了15%。 据这家企业称,垃圾邮件全部是在企业内部发现的。
- -虚假账户: facebook网每月客户中,3%-4%为虚假账户。 据该公司称,今年一季度删除了5亿8300万个虚假账户,低于上一季度的6亿9600万个。
facebook公司在报告中指出,计划每年至少发布两次相关数据,并主动承担责任。 报告指出,该指南可以解释我们的做法,让公众了解我们共享数据的好处和局限性,以及我们通过改进做法如何改变了数字。 我们致力于做得更好,更公开地让公众了解我们的努力,前进。
facebook产品管理副总裁盖罗森( guy rosen )在接受记者采访时表示,该公司正在努力开发标准,以识别社会交流平台上常见的仇恨言论。 目前,这家企业的机器学习系统仍然难以识别仇恨的语音,因为计算机很难理解上下文。
尽管如此,人们在facebook平台上发表了数不清的精彩演讲。 他说,今年3月,联合国将负责脸书在缅甸报道罗兴加少数民族的仇恨言论。 facebook企业主张,由于能说当地语言的审计师不足,难以阻止仇恨言论的传播。 我们为了关心这些情况,必须做越来越多的工作。 罗森指出,这家企业雇佣了越来越多的当地审计师。
在该执行报告发布前一个月,facebook网对外发布了社区标准,规定了不允许在facebook上发布的拷贝范围。 这个网站全世界的文案管理员也以此为业务标准。
facebook发表报告时,这家企业面临着越来越大的压力,外界呼吁减少仇恨言论、暴力和错误新闻。 受美国国会压力的束缚,facebook企业今年宣布将安全保障队伍增加到20000人。
标题:“Facebook:一季度清除190万个恐怖主义有关帖子”
地址:http://www.308101616qq.com//dgxw/66628.html