AI 界统一声音呼吁针对 Deepfake 技术立法
近年来,人工智能 (AI) 社区迈出了重要一步,联合起来解决人工智能技术最具争议性和潜在危害性的问题之一:深度造假。 包括著名研究人员、学者和行业领袖在内的 500 多名专业人士齐聚一堂,签署了一封公开信,强调迫切需要对人工智能生成的冒充行为(即深度造假)进行严格监管。 这一集体行动凸显了人工智能领域对不受监管地使用深度造假技术所带来的道德影响和社会风险日益关注。
Deepfakes 是一种合成媒体,其中一个人的肖像或声音被他人的肖像或声音所取代,已被认为是对社会的新兴威胁。 这封信的签署者认为,世界各国政府必须采取果断行动,通过在整个供应链中施加义务来遏制深度造假的扩散。 这封信特别呼吁将深度伪造儿童性虐待材料(CSAM)全面定为刑事犯罪,要求对参与制作或传播有害深度伪造内容的任何人进行刑事处罚。 此外,它敦促开发者积极防止利用其平台创建恶意深度伪造品,并对未能实施适当预防措施的处罚。
支持这封信的知名人士包括 Jaron Lanier、Frances Haugen、Stuart Russell、Andrew Yang、Marietje Schaake、Steven Pinker、Gary Marcus、Oren Etzioni、Genevieve Smith、Yoshua Bengio、Dan Hendrycks 和 Tim Wu。 这个多元化的签署者群体,包括来自不同学科和地区的数百名学者,强调了整个人工智能界对该问题的广泛认识。 值得注意的是,该代表包括来自领先人工智能研究组织的个人,尽管 Anthropic、亚马逊、苹果和微软等一些主要科技公司在发布时签署人数有限或没有。
呼吁对深度造假进行监管并不是一个新现象。 例如,欧盟(EU)多年来一直在审议此类措施,最近提出了正式提案。 欧盟的积极立场可能成为人工智能界集体声音的催化剂。 此外,《儿童在线安全法案》(KOSA)等立法进展缓慢,缺乏针对深度造假滥用的具体保护措施,以及人工智能生成的骗局影响选举或欺骗个人的可能性,进一步强调了采取行动的必要性。
众议院宣布成立一个新的特别工作组,尽管除了可能起草一份关于人工智能威胁的报告之外,议程尚未确定,但这表明政策制定者对这一问题的认识不断增强。 然而,这些举措的有效性仍有待观察,尤其是在国会严重分裂的选举年。 因此,人工智能界的行动呼吁是迫切需要立法干预以解决深度假货技术带来的道德和社会挑战的关键指标。
未经检查的深度造假技术的影响是深远的。 除了错误信息、政治操纵和个人伤害等直接风险之外,深度造假还对数字时代的真相和现实的完整性构成根本威胁。 随着人工智能的不断发展,深度造假可能会变得更加复杂且更难以检测,这突显了建立强大的法律框架以减轻这些风险的紧迫性。
总之,人工智能界对反深度造假立法的统一呼吁代表了正在进行的关于人工智能技术道德使用的讨论的关键时刻。 通过强调深度造假的危险并倡导全面的监管措施,这些专业人士不仅寻求保护个人和社会免受伤害,而且努力确保人工智能的发展符合道德原则和人类价值观。 随着辩论的继续,各国政府和更广泛的国际社会响应这一号召而采取的行动对于塑造人工智能的未来及其对社会的影响至关重要。
What's Your Reaction?