6月3日消息,近日,据外媒报道,内部文件显示,Meta计划将高达90%的应用更新风险评估自动化。
长期以来,Meta旗下包括Instagram和WhatsApp在内的平台的更新及新功能,在面向公众推出之前都会经过人工审核。但据报道,过去两个月,Meta大幅增加了对AI的使用。
内部文件显示,Meta的目标是让高达90%的风险评估工作由AI完成,甚至包括涉及青少年风险和“诚信”领域的评估,后者涵盖暴力内容、虚假信息等多个方面。
该公司表示,风险审查流程的变更旨在提高决策效率,并指出人工判断仍将应用于“新颖且复杂的问题”,而自动化审查仅限于“低风险”案例。