之前,众森企服给大家讲过办理互联网信息服务算法备案有三部分组成:主体备案、算法备案和产品备案。
主体备案主要审查的就是一家主体公司是否有算法相应的规章制度,里面最主要的就是算法安全管理制度。
算法备案主要审查的就是算法本身的情况,包括算法基本信息、算法运行机制及原理、算法风险以及相应的防范措施等等,这里面最重要的就是算法安全自评估报告。
产品备案主要审查的就是算法产品的情况,包括产品的名称、形态以及访问地址等。
那么,今天众森企服小编以生成合成类、服务提供者的算法自评估报告的模板为例,给大家好好讲讲算法安全自评估报告如何填写?
接下来一一给大家讲解下:
一、算法情况如何填写?
算法情况部分里面包括算法流程、算法数据、算法模型、干预策略、结果标识。
- 算法情况部分的内容均为事实描述,在撰写该部分的内容时,应当与算法相关技术人员紧密合作,确保各事实的描述与算法的情况一一对应。
- 如果某个算法可细分为多个模型,应当在算法流程部分以流程图的方式区分不同的模型,且在算法模型部分区分不同的模型撰写模型的情况(以人脸合成算法为例,可能细分为人脸检测模型、人脸替换模型等模型)。
二、服务情况如何填写?
对于生成合成类算法的服务提供者,需要说明备案的算法用于哪些服务。对于各服务的描述,分为服务简介和算法在服务中应用情况。
- 服务简介中,需具体描述各服务的介绍、上线时间、展现形态、服务在应用产品入口位置、服务流量、用户情况等。
- 算法在服务中应用情况,包括算法线上服务的数据来源、算法训练过程中的数据来源、数据的形态(图片、视频、文字、音频等)、算法的更新频率(在服务中注明算法版本号)、算法中间结果与其他服务或应用的共享情况等。
三、风险研判如何填写?
在风险研判部分,需围绕算法本身客观说明算法可能造成的风险,包括算法滥用、算法漏洞、算法恶意利用和其他的风险。
- 算法滥用方面的风险,是指算法是否有可能用于生成违法违规不良的内容,服务提供者或技术支持者应当结合算法本身的应用场景进行研判(如图片生成合成服务、视频生成合成服务,是否可能被用于生成合成淫秽色情、虚假信息等;文本生成合规服务,是否可能被用于杜撰谣言、编写网络舆论、生成诈骗短信等)。
- 算法漏洞方面的风险,主要围绕算法本身的机制机理是否健全以及不健全所导致的潜在风险进行研判。算法本身的机制机理的健全,可能进一步包括是否对输入内容进行预处理、是否可能输出个人隐私、是否可能被攻击导致输出原始训练数据等。
- 算法恶意利用方面的风险,可围绕算法是否有可能被恶意攻击(如使用输入内容投毒)、是否可能被高频调用等展开研判。
四、风险防控情况如何填写?
在风险防控(机制)情况,应当就前述风险研判部分阐述的风险,陈述为防止、控制这些风险而采取的机制。风险防控机制可再细分为:
应当注意,在撰写风险防控机制时,需要说明各项风险防控机制与前文分析的各项风险的对应关系,即为了哪项风险而采取了哪项风险防控机制、哪项风险防控机制对哪项风险有效。
1、风险防范机制建设
根据备案系统中的模板,风险防范机制建设方面至少包括以下方面:
- 算法机制机理审核;
- 算法安全评估监测;
- 对生成合成的虚假信息的辟谣机制;
- 算法安全事件应急处置。
以上内容为制度层面的建设,若目前服务提供者或技术提供者未建设相关制度,需尽快建立以上制度。若已制定相关制度,需要留存制度实施的日志以确保事件可回溯、可供监管机构调查时证明自身制度的切实实施。
2、用户权益保护
1)用户知情权
在“用户知情权”方面,需描述用户知情权的保障范围、保障手段及相关证明。
除了描述告知个人信息处理规则、如何取得处理的合法性基础、是否公示算法的基本原理、目的意图和主要运行机制之外,建议进一步描述是否向用户告知服务的使用限制、使用规范,是否告知服务由深度合成服务提供等。
2)用户个人信息保护
“用户个人信息保护”方面,除了前文所说的告知个人信息处理规则、取得合法性基础之外,若服务提供者的服务基于第三方提供的服务、需向第三方共享个人信息,需确保真实披露与第三方共享个人信息的目的、方式、范围等内容,并与第三方签订数据共享协议约定共享目的、范围以及双方的权利义务等。
除第三方共享之外,若涉及将用户的输入内容和相应的生成合成内容用于进一步算法训练,则应当取得用户的同意后进行;服务提供者也应当说明是否提供用户行使删除权的方式、数据存储期限等。
3)其他权益保护
若服务涉及单次收费、订阅收费等,可进一步描述如何确保消费者权益得到保护、未诱导消费者额外消费。
若涉及向未成年人提供服务,如具有基于生成合成算法的服务的早教机器,需进一步说明保障未成年人权益的措施。
3、内容生态治理
根据生成合成类服务提供者的算法自评估报告的模板,内容生态治理方面的防控措施可分为“防范和抵制违法违规不良信息”和“人工审核”两种措施。
“防范和抵制违法违规不良信息”措施方面,可以描述是否在程序、算法方面设置了过滤、发现或抵制机制,包括在用户输入违法违规不良信息时进行暂停、停止算法进一步运行;也包括对算法生成合成的内容进行审核,防止算法生成合成违法违规的不良内容。
在“人工审核”措施方面,需具体展开是否进行了人工审核、人工审核的标准、如何将人工审核与机器审核相结合。(例如:仅有机器审核;机器审核发现存在问题/机器无法直接判断的再由人工审核;机器审核与人工审核双重审核)
4、模型安全保障
模型安全保障,主要是指技术层面采取了什么措施以防范数据投毒(若涉及使用用户输入的内容进行进一步的模型训练,如是否建立了识别违法和不良信息的特征库、是否建立关键词或敏感词过滤机制)、模型投毒(如模型存在漏洞,用户输入特定内容将导致模型崩溃、生成非预期内容等)。
5、数据安全防护
“数据安全防护”包括训练数据(包括预训练、优化训练使用的数据)的采集、使用、存储等;若涉及将训练数据或模型权重与第三方共享,还需要说明为合法合规共享而采取的安全防护措施(如是否记录与第三方共享的数据、是否建立审计措施等)。
训练数据的来源可能分为多类,如使用开源数据集、从个人处收集、外部采购数据、爬取外部数据、企业自建的数据集。在使用不同来源的训练数据时,需要符合不同程度的合规要求,包括开源合规、知识产权合规、个人信息处理合规、数据提供方尽职调查、爬虫合规等。
五、安全评估结论如何填写?
这个比较简单,就是针对上述撰写的内容做一个全面的分析总结,并得出一个最终的有效结论,是否符合国家的法律法规及相应的管理办法。
六、其他应当说明的相关情况如何填写?
这个可填可不填,就是做一个总结性的内容。不过,如果有跟其他外部技术合作的相应协议,可以放在这部分里面。