×

打开微信,扫一扫二维码
订阅我们的微信公众号

首页 乐彩汇概况 党建工作 专业领域 行业领域 专业人员 全球网络 新闻资讯 出版刊物 加入我们 联系我们 订阅下载 CN EN JP
首页 > 出版刊物 > 专业文章 > 照片生成个人声音:Seedance 2.0事件的法律责任框架与风险治理

照片生成个人声音:Seedance 2.0事件的法律责任框架与风险治理

作者:周魏捷 2026-02-13

近日,科技博主“影视飓风Tim”发布了一条视频,展示了字节跳动Seedance 2.0模型的一项能力。仅凭他的一张照片,模型就生成了高度还原的声音——不仅音色相似,连说话习惯都惟妙惟肖。Tim在视频中表示“有点恐怖”。很快,字节跳动暂停了Seedance 2.0的真人素材参考功能。即梦创作者社群中,平台运营人员发布通知称:“目前暂不支持输入真人素材作为主体参考”。官方同时强调:“创意的边界是尊重”。


这次快速调整一定程度上体现出问题还是很严重的。现有的AI换脸技术需要人脸视频样本,AI声音克隆需要音频样本。Seedance 2.0展示的能力前所未有,在演示中未向模型提供音频样本,仅凭一张静态照片,就能“推理”出人的声音特征。


这可能不是“复制”,而是“推理”。可能不是“伪造”,而是“创造”。这个区别至关重要。


传统的AI换脸、声音克隆技术,本质上是“复制”——需要获取目标对象的原始样本(视频、音频),通过技术手段进行复制和拼接。法律对“复制”行为有相对清晰的规制路径:未经授权使用他人肖像、声音,构成侵权。侵权的前提是“使用”了原始素材。


Seedance 2.0展示的能力不同。它不需要任何声音样本,仅凭一张静态照片,就能“推理”出声音特征。外界尚无法确认其内部实现机制;从表现看更接近跨模态映射/生成能力——模型通过学习大量“面部-声音”配对数据,建立了两种生物特征之间的统计关联。当输入一张新面孔时,模型基于这种统计关联,“推理”出最可能对应的声音特征。


从技术角度看,这是生成式AI的重大突破。从法律角度看,这从根本上对现有权利保护框架和体系提出了挑战。


挑战一:侵权认定的困境。传统侵权法要求“使用”了权利客体。在未提供音频样本的情况下生成可识别的拟声效果,是否构成对声音人格利益的利用,以及责任如何归因?如果不构成“使用”,现有的肖像权、声音权保护规则能否适用?


挑战二:权利边界的模糊。一个人对自己声音的权利,是否延伸到“可能被推理出的声音”?如果AI推理的声音与真实声音有差异,但足以让他人识别,是否仍构成侵权?“可识别性”的标准如何界定?


挑战三:风险的指数级放大。传统技术需要获取原始样本,存在一定的技术门槛和成本。跨模态推理只需要一张公开照片——社交媒体、新闻报道、公司官网,任何公开渠道的照片都可能成为“推理”的起点。任何人的声音都可能被“推理”出来,风险从个别案例扩展到全社会。


那么,当AI可以“凭空推理”出一个人的生物特征,大厂该如何做合规决策?模型开发者该承担什么责任?AI伦理的边界在哪里?现有规则体系对这些问题的回答都还模糊。


一、快速调整背后:大厂的“防御性合规”逻辑


(一)大厂合规决策的特殊逻辑


大型科技企业的合规决策与中小企业有本质区别。小企业可能选择“先做再说”,在监管到来之前尽可能获取市场红利。大厂面临的约束更复杂,包括更高的监管关注度、更大的舆论放大效应、更强的示范效应。


推出新技术时,大厂必须预判所有可能的合规风险。Seedance 2.0涉及的问题恰恰是合规风险最高的一类,包括人格权保护、生物识别信息处理、深度合成内容标识等等。这些领域要么没有明确规则,要么规则边界模糊。


规则不明确,大厂的理性选择是“防御性合规”——宁可保守,不要冒险。暂停真人素材功能,就是这种逻辑的体现。与其在法律灰色地带继续运营,等待监管问询或诉讼发生,不如主动调整,规避潜在风险。


(二)合规成本与创新速度的张力


“防御性合规”有代价。它会抑制技术创新的速度。每一项新技术都要经过漫长的合规论证,在规则完全明确后才能落地,创新速度会大大放缓。


合规论证的结论往往具有不确定性。Seedance 2.0涉及的法律问题,没有明确的司法解释,没有类似的先例。合规部门只能基于现有规则进行类推解释,类推的结论本身存在争议。


企业的商业决策在这种情况下面临不对称的激励结构:“做错了”的代价——监管处罚、舆论危机、品牌受损——远大于“做对了”的收益——技术领先、市场占有。大厂在面对新技术时,倾向于选择最保守的合规路径。


(三)规则的模糊性与企业的可预期性


这次快速调整还暴露了一个更深层的问题。规则的模糊性会降低企业的可预期性。企业不知道什么能做、什么不能做,只能通过“试错”的方式探索边界。试错的成本极高,尤其是对大厂而言。


监管希望企业承担主体责任,主动识别和控制风险;规则的模糊性又让企业难以准确判断风险所在。企业只能通过“一刀切”的方式规避风险,这种方式本身又会抑制技术创新。


二、模型制造方的合规责任:从训练到部署的全链条义务


Seedance 2.0事件引发的第二个核心问题是,作为AI模型的开发者,字节跳动应该承担什么样的合规责任?


(一)训练阶段:数据来源的审查义务


Seedance 2.0能够“推理”声音,前提是模型经过了大量训练。训练数据从哪来?数据来源是否合法?这是模型开发者必须回答的首要问题。


Tim在视频中的疑问很直接:“如果一个人的数据全部进入AI数据集,它能100%模拟出你的任何形态和声音。”他担心的是,自己和团队过往上传的大量视频素材,是否被用于训练这个模型。


《中华人民共和国个人信息保护法》第六条确立了目的限制原则。用户上传视频到抖音或相关平台,目的是发布和分享,不代表同意将相关数据用于AI模型训练。字节跳动如果使用这些用户数据训练Seedance 2.0,可能需要重新取得用户同意。


《中华人民共和国个人信息保护法》第二十八条将面部识别信息、声音等生物识别信息列为“敏感个人信息”,要求取得个人的单独同意。模型开发者面临更高的合规门槛,第二十九条规定了使用包含生物识别信息等数据训练模型,需要取得数据主体的单独同意。


《生成式人工智能服务管理暂行办法》要求训练数据具有“合法来源”。“合法来源”的标准是什么?从公开渠道爬取数据训练模型是否构成侵权?购买第三方数据集,如何确保数据集本身的合规性?这些问题的答案不明确。而在国际上,这个问题已经引发了多起诉讼。


2022年,GitHub Copilot 因使用 GitHub 上的大量开源代码训练 AI 编程助手,在美国遭到开发者提起集体诉讼。原告主张,即使代码在平台上公开发布,也并不意味着其作者自动授权将代码用于 AI 模型训练,尤其是在训练与输出过程中可能未遵守开源许可证所要求的署名、许可声明保留等条件。GitHub 方面则提出包括开源许可解释与合理使用在内的抗辩理由,认为相关使用方式可能属于法律允许的范围。该案目前尚无终局判决,但已引发了对“公开数据是否当然可用于 AI 训练”这一假设的持续争议。


2023年,Stability AI、Midjourney 等图像生成模型因训练数据来源问题在美国遭到艺术家提起集体诉讼。原告主张,这些模型在训练过程中使用了互联网上大量受版权保护的图像作品,其中包括艺术家的创作内容,但并未获得授权,也未遵守相关权利与许可条件。被告则提出包括合理使用在内的多项抗辩,认为模型训练及其技术过程可能属于法律允许的使用方式。美国法院目前尚未就“AI训练是否构成合理使用”形成明确的终局裁判,但在案件推进中已驳回部分诉讼请求,要求原告进一步具体说明侵权复制与生成输出之间的关联,例如生成内容是否能够构成对原作品受保护表达的复制或近似再现。该案因此成为“AI训练是否需要授权”这一核心争议的重要标志性案例。


这些案例揭示了“合法来源”标准的核心争议,即公开数据是否等于可用数据?AI训练是否构成“使用”?如果构成“使用”,是否需要授权?


中国的《生成式人工智能服务管理办法》要求“合法来源”,但没有明确这些问题的答案。实践中,模型开发者则面临两难。如果严格要求每一条训练数据都获得授权,大规模模型训练几乎不可能实现;如果不要求授权,又可能面临侵权风险。


更复杂的问题是,Seedance 2.0涉及的不仅是版权,还有人格权和个人信息权。版权保护的是作品,可以通过授权、许可等方式流转。人格权保护的是人格利益,不可转让、不可放弃。即使用户同意将视频上传到平台,也不代表同意将面部、声音等生物特征用于AI训练。《中华人民共和国个人信息保护法》要求处理敏感个人信息需要“单独同意”,这意味着平台需要为AI训练专门取得用户同意,而不能依赖用户注册时的一揽子授权。


规则不明确不代表没有义务。模型开发者负有数据来源审查的义务:确认数据是否获得授权、数据是否包含敏感个人信息、数据使用是否超出授权范围等。审查不到位,模型开发者需要承担相应责任,模型开发者需要建立更严格的数据合规审查机制。


(二)部署阶段:内容审核与风险控制义务


模型训练完成后,进入部署阶段。这个阶段,模型开发者的合规义务包括内容审核、风险控制、用户提示等多个方面。


《互联网信息服务深度合成管理规定》第七条要求,深度合成服务提供者应当在生成内容的合理位置进行显著标识。模型开发者有了标识义务,但“合理位置”和“显著标识”的标准是什么,目前尚不明确。而《规定》第八条规定,提供生物识别信息编辑功能的,应当提示使用者依法告知被编辑的个人并取得其单独同意。该条款使用“编辑”一词,是否涵盖AI“推理”生成的技术场景,存在解释上的模糊性。模型提供的不是“编辑”而是“推理生成”,提示义务是否触发?


模型开发者还需要建立内容审核机制,防止模型被用于生成侵权内容、虚假信息、违法内容。AI生成内容的海量性、实时性,使得传统的人工审核难以应对。如何设计有效的技术审核方案,是模型开发者面临的实践难题。


(三)事后阶段:应急处置与责任追究义务


当生成内容引发争议或投诉时,模型开发者需要承担应急处置义务。Seedance 2.0快速暂停真人素材功能,是应急处置的体现。应急处置是否充分?是否有更精细化的应对方案?


《深度合成管理规定》要求建立投诉举报处理机制。现实问题是,AI生成的侵权内容是实时生成的,权利人如何投诉?平台如何快速响应?传统的“通知-删除”机制是否还能适应AI时代的需求?


责任认定的难题更深:用户上传照片、AI生成声音、平台提供工具——三方行为交织在一起,模型开发者的责任边界在哪里?承担过错责任、连带责任,还是某种新型的平台责任?


传统的平台责任理论面临挑战。在传统的网络平台责任框架中,平台通常被定位为“中立的技术服务提供者”。用户上传侵权内容,平台在“知道或应当知道”的情况下,如果未采取必要措施,需要承担连带责任。这就是“通知-删除”规则的理论基础——平台不需要主动审查所有内容,但在接到通知后需要及时删除。


AI生成内容的场景不同。平台不仅提供存储和传播服务,还提供生成工具。用户上传一张照片,平台的AI模型生成声音,这个声音可能侵犯他人权利。平台是“中立的技术服务提供者”吗?答案是否定的。平台提供的不是中立的技术工具,而是具有特定功能的AI模型。模型的训练数据、算法设计、功能边界,都由平台决定。平台选择开发“推理声音”的功能,选择允许用户上传真人照片,这些都是平台的主动决策,而不是被动的技术服务。这意味着,平台的责任不应局限于“知道或应当知道”后的事后责任,而应包括事前的风险预防责任。具体包括:


1.功能设计的审慎义务。平台在设计AI功能时,需要评估功能的潜在风险。“推理声音”功能具有明显的侵权风险,平台应该在功能设计阶段就采取风险控制措施,如限制真人素材、增加身份验证、强化内容标识等。如果平台未履行审慎义务,即使没有接到具体的侵权通知,也应承担责任。


2.技术能力的控制义务。平台具有技术能力识别和控制风险。例如,平台可以通过人脸识别技术,判断用户上传的照片是否为真人;可以通过声纹识别技术,判断生成的声音是否与已知的公众人物匹配;可以通过内容标识技术,在生成内容上添加明显的AI标识。平台具有这些技术能力,就应该承担相应的控制义务。


3.持续监测的注意义务。AI生成内容是实时的、海量的,传统的“通知-删除”机制难以应对。平台需要建立持续监测机制,主动识别高风险内容。例如,当某个用户频繁使用真人照片生成内容,平台应该主动介入审查;当生成内容被大量传播,平台应该主动评估风险。

这种责任框架不是“连带责任”,而是“独立责任”。平台不是因为用户侵权而承担连带责任,而是因为平台自身的功能设计、技术能力、监测义务未履行到位,而承担独立的责任。这种责任框架更符合AI时代的技术特征,也更能激励平台主动防范风险。


国际上,欧盟的《数字服务法案》(DSA)对超大型在线平台提出了系统性风险识别、评估和缓解的法定义务。根据该法规,这类平台必须定期识别与其服务设计、算法推荐和运营方式相关的广泛风险,包括非法内容传播、基本权利负面影响及选举干扰等,并据此采取合理有效的缓解措施。平台还需保存风险评估文件并接受监管与独立审计。这一制度设计不仅关注具体的违法内容问题,也强调平台自身设计和算法逻辑可能对整体社会产生的风险,体现了对传统“中立平台”理论的实质性突破。


三、AI伦理治理:从“能不能做”到“该不该做”


Seedance 2.0事件引发的第三个核心问题是:AI伦理的边界在哪里?技术可以实现某项功能,是否意味着应该实现这项功能?


(一)技术可行 vs 伦理可接受


Seedance 2.0展示的跨模态推理能力,从技术角度看是先进的。模型通过学习面部特征与声音特征的对应关系,能够仅凭照片“推理”出声音特征。这是AI技术的一个重要突破。


从伦理角度看,如果任何人都可以凭一张照片“推理”出他人的声音,个人的声音隐私、身份安全、名誉保护都将面临前所未有的威胁。技术可行,伦理上可接受吗?


目前的AI伦理治理框架没有给出明确回答。传统的AI伦理讨论集中在算法歧视、透明度、可解释性等问题上,对于“推理生物特征”这类新技术带来的伦理挑战,缺乏充分的讨论和规则准备。


(二)“推理”生物特征的伦理边界


AI“推理”生物特征的伦理边界在哪里?面部识别、声音识别等生物识别技术已经引发了广泛的隐私担忧。这些技术的基础是“识别”——确认某个人是否是某个人。Seedance 2.0展示的“推理”能力,是从一种生物特征(面部)“推理”出另一种生物特征(声音)。


跨模态推理的伦理边界在哪里?AI可以凭照片推理出声音,是否也可以推理出其他生物特征——步态、指纹、虹膜?甚至是否可以推理出非生物特征——性格倾向、政治立场、性取向?


这些问题触及了个人隐私保护的深层边界。没有任何限制,AI可以通过有限的公开信息,“推理”出个人的大量私密特征。个人隐私、人格尊严、人身安全都可能面临严重威胁。


(三)AI伦理治理框架的缺失


Seedance 2.0事件暴露了AI伦理治理框架的缺失。中国的AI治理主要集中在法律合规层面,如《深度合成管理规定》《生成式人工智能服务管理办法》等。这些规章主要关注内容安全和数据合规,对AI伦理问题关注不足。而在国际上,不同国家和地区对AI治理采取了不同的路径,背后反映了不同的法律传统和价值取向。


欧盟:风险预防导向。 欧盟的《人工智能法案》(AI Act)提供了一个典型的风险分级监管框架。该法案将AI系统按风险程度划分为四类:


——不可接受风险:原则上禁止使用。例如社会评分系统、利用人类弱点进行操纵的AI,以及实时远程生物识别系统(仅在极为有限且严格条件下对执法场景例外适用)。


——高风险:需要通过合规评估并承担持续监管义务。典型领域包括关键基础设施管理、教育与职业培训、就业管理、执法、移民管理等。高风险AI必须满足数据治理、透明度、人类监督、准确性与网络安全等要求。


——有限风险:主要承担透明度义务,例如聊天机器人、深度伪造内容生成系统等,需要明确告知用户正在与AI交互或内容由AI生成。


——最小风险:通常不设特殊义务,例如AI驱动的视频游戏、垃圾邮件过滤器等。


欧盟的路径体现了鲜明的“风险预防原则”(precautionary principle):在风险尚不完全确定的情况下,优先保护公共利益,对高风险技术采取事前监管。这与欧盟在数据保护(GDPR)、产品安全等领域的一贯监管传统高度一致。


美国:创新优先导向。 美国对AI的监管总体更为分散和宽松,强调行业自律与事后救济。目前美国尚无统一的联邦AI综合立法,更多依赖既有法律框架(如版权法、隐私法、消费者保护法、反歧视法等)来回应AI带来的新问题。


拜登政府发布的《AI权利法案蓝图》(Blueprint for an AI Bill of Rights)属于政策指导文件,并不具有强制约束力。在训练数据侵权争议中,被告普遍援引“合理使用”(fair use)作为重要抗辩理由,但美国法院迄今尚未就“AI训练是否当然构成合理使用”形成明确终局规则。


美国的路径体现了“创新优先”的价值取向:在技术发展初期避免过度监管抑制创新,通过市场竞争与司法救济逐步校准风险边界。这与美国的自由市场传统和言论自由保护传统密切相关。


日本:社会信任与软法治理导向。日本对AI治理更强调“社会接受度”(social acceptance)与公众信任的建立。日本政府及相关机构发布了多份AI治理与利用指南,强调企业应主动与社会沟通,解释AI系统的工作方式、潜在风险与责任边界。与欧盟偏重强制性立法不同,日本更多依赖软法工具与多方协商机制,例如政府专家会议、产业界自律框架与伦理讨论机制,推动高风险场景下的审慎应用。


日本的路径体现了“社会共识导向”的价值取向:技术发展不仅是工程问题,也是社会问题,需要通过对话、透明与协商逐步获得公众的制度性信任。这与日本长期以来的协商决策传统相契合。


中国:内容安全与合规优先导向。中国的AI治理体系目前更加突出内容安全、数据合规与公共利益保护。《深度合成管理规定》《生成式人工智能服务管理暂行办法》等规范均强调,AI生成内容不得违反法律法规,不得侵害他人合法权益,不得危害国家安全与社会公共利益,并要求服务提供者履行标识、审核与风险防控义务。中国的路径在技术创新与安全治理之间,更强调底线约束与平台责任,通过前置合规要求来防范生成式AI可能带来的社会风险。


欧盟的风险预防、美国的创新优先、日本的社会共识、中国的内容安全,各有侧重。Seedance 2.0事件暴露的问题是,单纯的内容安全监管不足以应对AI技术带来的伦理挑战。“推理生物特征”的风险不在于生成的内容是否违法,而在于技术能力本身对个人权利的威胁。中国需要在内容安全监管的基础上,借鉴风险分级、社会共识,以指南先行、产业自律与多方协商机制,在中国语境下探索并建立更全面的AI伦理治理框架。


Seedance 2.0属于哪个风险等级?按照欧盟标准,它至少属于“有限风险”(深度伪造内容生成),可能属于“高风险”(涉及生物识别信息处理)。如果被认定为高风险AI,需要通过合规评估,包括数据质量审查、算法透明度要求、人类监督机制等。


欧盟的风险分级框架是否足够精细,能否覆盖“推理生物特征”这类新技术带来的伦理挑战?答案不确定。欧盟法案主要关注AI系统的“用途”(用于执法、就业等),对AI系统的“能力”(推理生物特征)关注不足。Seedance 2.0的风险不在于它被用于什么领域,而在于它具备什么能力——仅凭照片推理声音的能力本身就具有高风险。


中国应该建立什么样的AI伦理治理框架?


首先,需要建立能力导向的风险评估机制。不仅关注AI系统的应用领域,更要关注AI系统的技术能力。“推理生物特征”这类能力,无论应用于什么领域,都应被认定为高风险,需要通过专门的伦理审查。


其次,需要建立多方参与的伦理审查机制。AI伦理问题不是技术团队可以单独判断的,需要法律专家、伦理学者、行业代表、公众代表的共同参与。审查机制应该是事前的、强制的,而不是事后的、自愿的。借鉴日本的经验,建立包含多方代表的AI伦理审查委员会,对高风险AI项目进行事前审查。


第三,需要明确伦理违规的问责机制。目前,企业建立AI伦理委员会、发布AI伦理准则,主要是自律性质,缺乏强制约束力。应该建立伦理违规的法律责任,包括行政处罚、民事赔偿、刑事责任等。


第四,需要建立技术能力的披露机制。高风险AI系统的技术能力应该向监管部门披露,包括训练数据来源、模型架构、推理能力边界等。监管部门应该有能力评估这些技术能力的风险,而不是依赖企业的自我评估。


企业层面,一些大厂建立了内部AI伦理委员会,制定了AI伦理准则。字节跳动在回应中强调“创意的边界是尊重”,体现了对伦理问题的关注。这些委员会和准则的约束力如何,能否真正影响产品决策,存在不确定性。Seedance 2.0的真人素材功能上线和暂停,是否经过了AI伦理委员会的审议?审议的结论是什么?外界无法得知。这种不透明性本身就是问题——AI伦理治理需要透明度,需要外部监督,而不仅仅是企业内部的自我约束。


(四)从“能不能做”到“该不该做”的思维转变


根本上,Seedance 2.0事件要求我们从“能不能做”的技术思维,转向“该不该做”的伦理思维。


“能不能做”的问题是技术问题,答案二元的:能,或不能。“该不该做”的问题是伦理问题,答案不是二元的,需要权衡多方利益:技术创新的价值、个人权利的保护、社会风险的防范、监管规则的遵循。


这种权衡不是技术团队可以单独完成的,需要法律专家、伦理学者、政策制定者、公众代表的广泛参与。通过这种多方参与的治理模式,才能在技术创新与社会价值之间找到平衡点。


四、法律如何回应:三个方向的完善建议


针对Seedance 2.0暴露出的问题,有三个完善方向。


(一)明确“AI推理生成”的法律定性


《中华人民共和国民法典》第一千零二十三条将声音保护“参照适用”肖像权,未预见AI“推理”生成声音的技术场景。立法机关需要明确,AI“推理”生成的生物特征(声音、面部、步态等)属于“使用”的范畴,受相关人格权保护。同时,应明确“可识别性”标准——AI生成的内容能够被识别为特定自然人,即可认定侵权,不要求达到“完全相同”的程度。


(二)明确模型开发者的全链条合规义务


相关部门出台实施细则,明确模型开发者在训练、部署、事后三个阶段的合规义务。训练阶段,需要审查数据来源合法性、取得数据主体授权;部署阶段,需要履行标识义务、提示义务、内容审核义务;事后阶段,需要建立投诉处理机制、采取应急处置措施。同时,应明确平台责任的认定标准,平衡创新激励与风险防范。


(三)建立AI伦理治理框架


监管部门、行业组织、企业共同参与,建立AI伦理治理框架。框架应包括:AI伦理审查机制、高风险AI评估标准、多方参与的决策程序、伦理违规的问责机制。对于“推理生物特征”这类高风险技术,应建立专门的事前审查机制,确保技术发展符合社会价值观。


结语


Seedance 2.0快速暂停真人素材功能体现出大厂合规逻辑、模型责任边界、AI伦理治理之三重困境。AI可以凭一张照片“推理”出你的声音,传统的法律概念和伦理框架都面临挑战。大厂在规则模糊地带选择“防御性合规”,模型开发者面临全链条合规义务的认定难题,AI伦理治理框架尚未有效建立。


法律和伦理没有给出明确的答案。但模糊本身也是一种答案。它在告诉我们,技术发展的速度已经超过了规则演进的速度,我们需要加快构建适应AI时代的治理框架。


作为法律从业者,我们能做的不仅是观察和记录这些模糊地带,更是通过专业研究和实践探索,推动法律规则和伦理标准的完善。技术的终极目的,不是展示“能做什么”,是回答“该做什么”。


Seedance 2.0的真人素材功能暂停了,问题没有暂停。它会以新的技术形态、新的产品形态,再次出现。那时,我们希望法律和伦理都准备好了答案。