求“解”AI与安全的平衡之道:YOCSEF广州-大湾区IT创新论坛近日成功举行

求“解”AI与安全的平衡之道:YOCSEF广州-大湾区IT创新论坛近日成功举行

近年来,人工智能技术发展迅速,与之相关的数据安全问题也日益受到关注。当前以深度学习为代表的人工智能技术,一大特点在于对大量数据的依赖,其数据安全问题既涉及其数据可靠性,也涉及数据使用过程的数据安全与隐私保护。在数据安全相关管控不断加强的背景下,数据安全管控对于人工智能技术落地,是助推器还是紧箍咒?数据安全管控力度的“度”该怎样把握?人工智能与数据安全,如何相互奔赴?对此,YOCSEF广州学术委员会于2022年9月24日举办了大湾区IT创新论坛——“人工智能与数据安全:平衡之道在何处?”观点论坛,共论人工智能与数据安全的关键挑战与未来路径。

此次论坛由YOCSEF广州学术委员会、华南农业大学数学与信息学院和暨南大学网络空间安全学院共同承办,农业农村部华南热带智慧农业技术重点实验室和广州市智慧农业重点实验室协办,YOCSEF广州主席黄栋(华南农业大学)和YOCSEF广州AC委员龙锦益(暨南大学)担任执行主席,YOCSEF广州AC委员蓝连涛(华南农业大学)担任微论坛主席。广州唐邦信息科技有限公司为此次活动提供赞助支持。

图1 论坛背景

论坛邀请了中山大学计算机学院卢伟教授、广州大学黄埔研究院/研究生院常务副院长李进教授、暨南大学网络空间安全学院夏志华教授作为引导报告嘉宾。CCF 广州分部执委黄琼教授(华南农业大学),YOCSEF广州AC委员谢光强教授(广东工业大学)、李春英副教授(广东技术师范大学)、曾衍翰副教授(广州大学)、梁鹏副教授(广东技术师范大学)、姚恩义副教授(华南理工大学)、刘同来副教授(仲恺农业工程学院)、姜思羽博士(广东外语外贸大学)、刘研总监(广州图普网络科技有限公司)、黄培涛总经理(广州唐邦信息科技有限公司),以及华南理工大学电子信息学院余翔宇副院长,广东工业大学自动化学院杨祖元教授、计算机学院罗玉副教授,华南农业大学数学与信息学院肖德琴教授、梁云教授、边山副教授、彭超达副教授、黄立峰博士、罗浩宇博士、李宏博博士等来自多所高校及企事业单位共40多人现场参加了此次论坛活动。

论坛首先由华南农业大学数学与信息学院黄琼院长代表承办单位致辞。黄琼对线下与线上的参会嘉宾表示了欢迎,对华南农业大学数学与信息学院的基本情况以及智慧农业与人工智能等领域的特色研究工作进行了介绍,期待论坛可以围绕人工智能与数据安全进行深入思辨,并预祝论坛圆满成功。

图2 黄琼院长致辞

随后,论坛进入引导报告环节,中山大学卢伟教授、广州大学李进教授、暨南大学夏志华教授围绕人工智能与数据安全的若干议题分别作了精彩的报告。卢伟教授以“面向Deepfake深度伪造的智能与反智能对抗”为题,概述了面向深度伪造的视频篡改、伪造和检测发展现状,分析了伪造生成、伪造检测等重要问题,并介绍了面向不同场景需求的伪造生成和伪造检测研究成果及其行业落地应用。李进教授以“人工智能中的数据安全隐私挑战”为题,介绍了人工智能与数据安全的发展概况、隐私保护的攻击和防御分类,分析了对抗样本攻击的研究现状,并介绍了在隐私增强的安全多方计算、高效安全且有隐私保护的数据分析、外包的差分隐私等方面的研究成果。夏志华教授以“深度学习模型水印”为题,阐述了深度模型水印的实用性和安全性需求,分析了模型水印面临的水印检测、水印移除和水印覆写等攻击类型,分享了研究团队在白盒深度学习模型水印、墨盒深度学习模型水印、GAN模型水印等方面的研究成果,并总结了白盒、黑盒和无盒三种深度学习模型水印的相关挑战与应对。

图3 卢伟教授作引导报告

图4 李进教授作引导报告

图5 夏志华教授作引导报告

在引导报告之后,论坛进入思辨环节。与会嘉宾围绕“数据安全管控之于人工智能落地,是助推器还是紧箍咒?”“数据安全管控力度的‘度’该怎样把握?”“人工智能与数据安全,如何相互奔赴?”等三个议题展开了深入思辨。

议题一:数据安全管控之于人工智能落地,是助推器还是紧箍咒?

人工智能和数据安全有相辅相成的一面,也有相互牵制的一面。有嘉宾指出,个人数据隐私保护很有必要,数据安全管控势在必行。数据分类分级管控,有助于促进数据使用的合理化、规范化和标准化,对人工智能有助推作用。而如果数据管控不善、数据被滥用,则会增加个人隐私数据的泄露风险,使得用户不再敢提供真实的数据信息,数据可信度降低,进而阻碍人工智能的发展。现场嘉宾进行了补充,数据安全管控应该充分发挥“紧箍咒”作用。野蛮无序地滥用数据不仅是对个人隐私的严重侵犯,若长期放任其发展、不加管控,还会造成严重的社会影响,也终将反噬人工智能本身。

与会嘉宾亦论及,目前数据管控存在边界模糊的问题,“谁来管”“管哪些”“管到什么程度”尚待明晰。数据流动也仍处于发展阶段,相关管控不宜过早和过严。有嘉宾指出,鱼和熊掌不可兼得,若所有用户均不共享任何个人数据,则技术或因此停滞;人们在体验技术所带来便利的同时,难免涉及个人数据的有限分享或让渡。

论及技术层面,数据隐私问题因技术而产生,也应由技术来解决。技术本身并没有好坏之分,关键在于如何使用。数据管控并不意味着数据无法正常使用,也不是限制人工智能发展;恰恰相反,它是对数据的合理、合规和合法使用进行规范,相信对人工智能落地起到助推作用。与会嘉宾指出,数据安全管控之于人工智能落地,或许就像高悬的达摩克利斯之剑一样,时刻提醒着企业在利用人工智能使用数据时,应保持敬畏、遵守法律,才能获得长远发展。

议题二:数据安全管控力度的“度”该怎样把握?

个人、企业和政府是数据安全的三方行为主体,个人是数据生产者,企业是数据使用者,而政府是数据监管者。企业收集并使用个人数据,政府对企业行为进行监督和规范。如果数据管控过于严苛,或影响正常的技术发展与科学研究,而如果管控过松,也会导致一些数据滥用的情况。针对数据安全管控力度的“度”该怎样把握,现场嘉宾进行了思辨。

有嘉宾指出,数据安全的管控力度如何找到最优解,若将其视作一个不断搜索和优化的问题,或有两种主要路径,一是是由弱到强地迭代收紧,二是先施以严策、再由强到弱地逐步寻找合适力度,两种搜索路径对人工智能技术和行业发展可能产生较大差异。进一步,与会嘉宾指出,就个人而言,数据隐私和数据安全须从严保护,数据使用也应有知情权。就企业而言,数据管控力度在早期不宜太强,以免对人工智能行业的初期发展形成过强限制;在发展过程中发现问题、分析问题、解决问题亦犹未晚。

现场亦论及个人、企业和政府三者的力量对比。通常可认为,政府的力量大于企业,企业的力量大于个人,三方在数据安全与隐私保护上的博弈力量并不均衡。在无“外力”约束下,个人与企业的力量不对等,后者或可在一定程度上予取予求(例如在收集个人信息与不合理条款方面);而政府力量的作用可视作以政策法规为失衡天平的“个人端”加码,以使之能与“企业端”达到大致平衡。同时,由于政策力量的全局性,怎样把握力度既保护个人用户、又不至于过度制约行业发展,则仍是不容易求得最优解的问题。

有嘉宾进一步强调,可根据数据的类型和应用场景需求,制定分类分级的数据安全管控机制。例如,涉及国家重要事宜和涉及不同日常生活场景时,其“度”迥异。此外,“度”的问题,在时间轴上也不是一成不变的,会随着人们的认知变化而改变,例如现在人们对音乐付费下载的认知和十年前就有相当差异。而无论横向观之抑或者纵向观之,对数据的使用都不能触碰社会伦理和道德底线,政府及政策往往是守护这一底线的关键力量;数据管控的力度应保护好个人数据的隐私权和知情权。

议题三:人工智能与数据安全,如何相互奔赴?

对此议题,现场嘉宾指出,人工智能和数据安全的相互奔赴之路,技术是支撑,人才是助力,政策发挥重大影响,这三者相辅相成。有嘉宾认为,技术和政策是客观的,而人有主观能动性,技术和政策是由人来发展和制定的,因此人才是人工智能与数据安全相互奔赴的关键。亦有嘉宾提出,当前人工智能领域的人才数量已经很大,且具有不可替代性的人才占比往往较小;相比于人才因素,技术是客观的、开放的,且实现人工智能落地需要长时间的技术积累,可以技术发展为主要牵引,在此过程中凝聚人才,政府亦制定政策配合以寻求技术突破。

有嘉宾建议,应从政策、技术和人才三方面共同着手,探索人工智能技术的未来发展方向,优化配套支持政策,明确数据安全管控的边界,建立数据安全管控法律,实现分类分级管控,使政策、技术和人才形成一个完善的生态圈。

期间,有嘉宾给出妙喻。对人工智能和数据安全进行求解时,人才与技术通常影响的是朝着“目标函数”进行迭代优化的速度,而政策工具的作用则是直接修改“目标函数”,显得尤为关键。政策要充分发挥指挥棒的作用,聚集与引导大量人才突破关键技术,推动人工智能与数据安全的相互奔赴。

C:\Users\Derek\AppData\Local\Microsoft\Windows\INetCache\Content.Word\IMG_2936-1.jpg

图6 现场嘉宾热议

此次论坛历时近四个小时,YOCSEF广州分论坛主席黄栋副教授对此次论坛进行了总结。此次论坛对人工智能与数据安全领域的技术与应用、问题与挑战进行了深入思辨,亦探讨了未来趋势与发展方向,相信可以为相关领域从业人员提供重要的参考与借鉴。最后,论坛在一片热烈的讨论氛围中圆满结束。

图7 与会人员合影留念


登录用户可以查看和发表评论, 请前往  登录 或  注册
SCHOLAT.com 学者网
免责声明 | 关于我们 | 用户反馈
联系我们: