OpenAI 推出 Sora iOS 社交视频应用:深度伪造功能开启 AI 社交新场景,安全与隐私防护同步升级

OpenAI 推出 Sora iOS 社交视频应用:深度伪造功能开启 AI 社交新场景,安全与隐私防护同步升级

OpenAI 于 2025 年 10 月 1 日正式发布新一代视频生成模型 Sora 2,并同步推出同名 iOS 社交视频应用(暂不支持安卓系统),该应用以 “深度伪造(Deepfake)共创” 为核心特色,允许用户在获得他人同意的前提下,将朋友的形象生成到 AI 视频中,同时通过严格的权限管控与安全机制,平衡创意功能与隐私保护,被业内视为视频生成领域的 “ChatGPT 时刻”。

从应用定位与核心功能来看,Sora 社交应用采用类似 TikTok 的信息流设计,用户可滑动浏览 AI 生成视频,但区别于传统社交平台的 “合拍”“二创” 模式,其核心创新在于 “客串(Cameo)” 功能:用户需先录制简短真人视频,让 Sora 2 模型学习自身形象与声音特征,生成专属数字分身;随后,可授权朋友将该分身植入任意 AI 场景 —— 例如将自己 “置于” 赛博朋克雨夜、太空舱或远古沙漠等虚拟环境,模型会自动匹配场景光影、调整人物姿态,实现 3D 无缝融合,消除 “抠图感”。此外,应用还支持 “Remix” 功能,用户可基于他人发布的 AI 视频进行二次创作,如修改场景描述、替换人物或调整风格,但目前仅允许生成 10 秒时长的视频,未来计划逐步放开时长限制。

在权限与隐私保护层面,OpenAI 建立了全链路管控机制。首先,形象 “共所有权” 规则明确:被生成形象的用户是最终视频的 “共同所有者”,可随时删除包含自身形象的内容,或撤销对他人的使用授权,即便视频处于草稿状态也不例外;其次,严格限制未授权形象生成 —— 若用户未主动上传个人 “客串” 素材,其 likeness 无法被他人使用,公众人物同样需自行上传素材并授权,方可生成相关视频;再者,内容安全审核机制升级,应用禁止生成 X 级或 “极端” 内容,通过多模态分类器实时检测输出结果,同时所有视频默认添加 C2PA(内容来源与真实性联盟)元数据,标注 “AI 生成” 属性,部分版本还会嵌入显性水印,便于追溯内容来源。

从发布策略与覆盖范围来看,Sora 应用当前采用 “邀请制 + 区域限定” 模式:仅对美国和加拿大用户开放,用户获得访问权限后可额外邀请 4 位朋友加入;iOS 用户可通过美区 App Store 下载,网页版需依托美区 IP 访问,安卓版本的发布时间尚未公布。这一谨慎的推进节奏,既为收集早期用户反馈以优化模型,也与不同地区的数据隐私法规适配相关 —— 例如欧盟因《通用数据保护条例》(GDPR)对个人数据使用的严格要求,暂未被纳入首批覆盖范围,OpenAI 需完成合规评估后才会逐步扩展至全球。

结合技术迭代背景,Sora 2 模型相较于 2024 年底发布的初代版本,在核心能力上实现显著突破。其一,物理模拟准确性大幅提升,生成视频中的人物动作、物体碰撞与流体运动(如水花、烟雾)更符合现实力学规律,解决了初代模型常见的 “穿模”“漂浮” 问题;其二,首次实现音视频同步生成,可根据场景自动匹配环境音、物体交互声甚至多语种对话,语音与唇形同步偏差小于 3 帧,大幅增强视频沉浸感;其三,多镜头叙事能力升级,支持一次生成包含镜头切换、景别变化的连贯故事,跨镜头的人物形象、场景光影保持高度一致,无需手动拼接。这些技术升级为社交应用的创意功能提供了底层支撑,让普通用户无需专业技能即可生成电影级质感的短视频。

从行业影响来看,Sora 社交应用的推出既开启了 AI 社交的新范式,也引发对 “真实与虚拟边界” 的讨论。一方面,其 “低成本创意表达” 特性可能重塑短视频行业格局 —— 用户可零门槛实现科幻、奇幻等复杂场景创作,为内容生态注入多元化活力;另一方面,深度伪造技术的普及也带来潜在风险,尽管 OpenAI 通过权限管控降低滥用可能,但如何防范 “未授权形象生成”“虚假信息传播” 等问题,仍需行业共同探索。正如 OpenAI 员工在媒体简报中所言,该应用的目标是 “让 AI 视频成为新的社交语言”,但这一目标的实现,需建立在技术创新与安全防护的动态平衡之上。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/openai-tui-chu-sora-ios-she-jiao-shi-pin-ying-yong-shen-du

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年10月8日
Next 2025年10月8日

相关推荐

发表回复

Please Login to Comment