【OpenAI、微软、谷歌、苹果、英伟达等将开会讨论AI开发使用标准】《科创板日报》11日讯,本周三,OpenAI、微软、谷歌、苹果、英伟达、Stability AI、Hugging Face、Anthropic等公司,将开会讨论制定AI技术开发使用标准,讨论如何以最负责任的态度继续开发AI。 (福克斯商业新闻)
【拜登政府开始考虑是否需对ChatGPT等人工智能工具进行审查】4月11日电,拜登政府已经开始研究是否需要对ChatGPT等人工智能工具进行审查,因为人们越来越担心该技术可能会引起歧视或传播有害信息。 (华尔街日报)
【国家网信办就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见】4月11日电,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见。其中提到,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:符合《中华人民共和国网络安全法》等法律法规的要求;不含有侵犯知识产权的内容;数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;能够保证数据的真实性、准确性、客观性、多样性;国家网信部门关于生成式人工智能服务的其他监管要求。
其中国家网信办的征求意见稿有几条重要的信息:
第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
第七条 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
第八条 生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。
第十一条 提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。
第十五条 对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
通过以上条款,我们可以清晰的看到,国家网信办对于生成式AI的要求可以总结为以下三条:
第一条:数据脱敏,对于用户输入信息、使用记录以及产生数据的隐私保护。
第二条:数据水印,对于生成内容的标注以及合法性的追溯。
第三条:数据沙箱,通过模型优化训练等方式防止不合法内容再次生成。
迪普科技:具备数据脱敏+数据水印+数据沙箱三大AI监管手段的行业龙头
公司官网主营业务显示,公司涉及数据安全、数据脱敏、数据水印
具备两市极度稀缺的数据沙箱题材入选理由是:2022年半年报:迪普科技公司自主研发的基于 AI 检测的智能威胁检测技术,基于智能化的语义分析引擎、行为分析引擎,结合高效的沙箱动态分析技术、丰富的特征规则库、全面的检测策略库,深度检测 APT 攻击行为。