——写给站在时代浪潮中的投资人与创业者
撰文:上海锦天城(重庆)律师事务所 高级合伙人 李章虎律师及团队
引言:当资本遇见人工智能,风口之外还有风暴
如果说过去十年的互联网让我们习惯了“疯狂扩张”,那么未来十年的人工智能会让所有人重新认识一句老话:技术越强,风险越大;机会越大,责任越重。
我在做律师的这些年里,见过太多创业者提着模型权重来谈融资,也见过太多投资人拿着尽调清单追着项目跑。人工智能行业里没有完全的“纯技术项目”,每一个看似冰冷的模型背后都站着程序员、标注员、客户和监管者;每一笔投融资,本质上不是为了追逐风口,而是为了——把好技术做大的可能性从风险泥浆里“拔”出来。
对于投资人来说,AI 项目是你见到过最“难尽调”的行业;
对于融资方来说,这又是最“容易被误解”的行业。
于是,我想写下这篇文章,既不是教条式法规汇编,也不是资本热潮下的盲目吹捧,而是把我真实看到的、听到的、处理过的案例和规律,汇成一篇有温度、有血有肉的专业文章。
希望当你读完,会明白:
AI 投融资不仅是技术与资本的对话,而是人性、责任与未来的协商。
如果把人工智能比作一棵大树,上游是根,中游是干,下游是枝叶。
根扎不深,树干不稳,枝叶就会枯萎。
下面我用律师视角把产业链讲清楚。
一、上游:烧钱、烧脑、烧心的基础设施阶段
上游包括三大部分:算力、算法、数据。
(1)算力:AI 世界的“空气”
GPU、ASIC 芯片、服务器、数据中心、云平台……
这些东西既贵,又缺,还不断被出口管制、行业限制、供应链风险影响。
我见过创业者用一年时间只干了一件事:找算力。
也见过投资人因为“算力不稳定”直接否了一个非常优质的团队。
算力不稳定,意味着模型训练不了;训练不了,就无法迭代;无法迭代,就无法商业化。
因此,投资 AI,看 PPT 不如看 GPU 数。
(2)算法:写在代码里的灵魂
算法框架、工具链、模型架构……
这些东西决定了项目的“未来天花板”。
算法的好坏不是用“快不快”“准不准”来判断,而是——
能不能证明“这就是你写的”?
能不能证明“你有权使用”?
能不能证明“你用它不会违法”?
这是所有监管任务的底线。
(3)数据:训练模型的粮食
数据是最敏感、最脆弱、最容易违法也最容易出大罚单的环节。
你不知道一个数据集是怎么来的,就永远不能确定:
会不会来自抓取?
会不会包含敏感数据?
会不会未经用户同意?
会不会触犯跨境规定?
会不会让你的模型“带毒”?
所以,对于投资人来说,判断数据合法性就是判断项目未来能否做大。
而对于融资方来说,数据是“压箱底的家底”,既不能乱用,也不能乱给。
二、中游:模型训练、推理与平台化能力——风险在脚下,价值在头顶
中游是 AI 行业的“心脏地带”,也是最容易被误解的领域。
(1)基础大模型:行业皇冠,但不便宜
大模型是行业的未来,但同时也是:
最花钱
最难监管
最难解释
最难确权
最容易被质疑侵权
我曾见过一个大模型企业,因训练数据来源不清,被监管叫停,估值一夜蒸发 70%。
一位投资人说:“投大模型,就是在投一个随时可能爆炸的金矿。”
我觉得形容得非常精准。
(2)垂直大模型:比通用模型更难
因为它直接面对:
医疗监管
金融监管
教育监管
公共安全监管
这些都是“红线密集区”,一点瑕疵都会被无限放大。
(3)MLOps 与模型平台工具链:沉默的价值载体
这是所有模型能活下来的基础。
但这部分常常被投资人忽略,也常常被融资方低估。
谁能掌握平台,谁就掌握生态;
谁能掌握生态,谁就掌握行业。
三、下游:AI 应用与场景落地——离用户越近,风险越高
下游的最大特点就是:
出问题最快、最直接、最难解释。
比如:
AI 自动驾驶撞人
AI 医疗误诊
AI 金融评分歧视
AI 文案输出侵权
AI 图像生成违法内容
每一个都不是小事情。
对于投资人来说,下游是判断项目落地能力的试金石。
对于融资方来说,下游是资金、责任、声誉最敏感的环节。
我常说:
AI 项目的尽调,是所有行业里最像“考古”的事情。
因为你要从数据、代码、模型里“挖”风险。
而融资方要把藏在深处的技术价值“挖”给投资人看。
下面我会把所有前述内容整合成“投融资全流程”,并加入律师的一定真实经验,以结构化方式呈现。
——第一道“看不见却挡不住”的风险关
在所有投融资阶段里,我认为最容易被忽视、却最能改变命运的,是这一阶段。
因为这是“要不要继续看下去”的判断阶段。
一句话形容:
这个阶段,投资人看的是方向和底牌;
创业者展示的是理想和体面。
我见过很多项目,甚至没走到尽调,就结束了。
不是因为不优秀,而是因为“信息模糊”本身就是风险。
(一)投资人的真实顾虑:三件事决定你值不值得看下去
1. “技术是不是真的?”——AI 行业最大的不信任点
投资人不会轻易说出口,但他们心里最担心的一件事就是:
你现在展示给我的,是不是模型真实能力?
为什么?
因为 AI 行业 DEMO 作假的成本太低。
我见过创业者用下面方式“美化展示”:
使用“预先算好的结果当成实时输出”
用“人工标注的完美答案”作为模型预测
临时租几十张 GPU,制造“训练能力强”的假象
使用“极度理想的数据集”来提高准确率
他们不是坏,只是太想活下去。
但投资人不是看不懂的人,他们只是没说破。
所以这类“美化”往往导致最悲伤的结果:
投资人既不投你,也不提醒你。
你以为是行业冷淡,其实是技术透不过光。
2. “数据来自哪儿?”——AI 行业最敏感的灵魂拷问
这是目前所有投资机构都最害怕的事情。
为什么?
因为一个“数据不合法”的判断,可能意味着:
模型要全部重训
用过去 6 个月的工作全部被推翻
已经签的商业合同无法履行
企业要被监管处罚
甚至出现刑事风险
更糟的是:
你不懂数据,不代表你没违法。
创业者常说:“这数据网上都有啊。”
但网上的,不代表能用。
投资人会想:
“如果你连数据的权利都不确定,我怎么敢投?”
3. “人是不是真的有能力?”——比技术更难判断的东西
我见过太多“技术型创始人”,讲技术的时候眉飞色舞;
但讲团队的时候沉默;
讲商业化的时候犹豫;
讲管理的时候苦笑。
投资人会发现:
技术创始人强,但团队弱
产品强,但商业弱
理想强,但落地弱
尤其是 AI 行业,有一个残酷规律:
模型不是最难的,团队稳定才是最难的。
所以投资人在项目筛选阶段最常说的一句话是:
“我投的是团队,不是技术。”
(二)融资方在这一阶段的三大恐惧:
创业者看似强大,但在这个阶段其实最脆弱。
1. “怕讲太多泄露技术,讲太少又显得弱”
我见过很多创始人有这样的痛苦:
技术讲多了 → 怕被人学走
技术讲少了 → 投资人可能觉得你“没货”
数据讲多了 → 怕暴露隐私问题
数据讲少了 → 投资人怀疑合法性
所以很多创业者在路演时会出现一种奇怪的状态:
明明很强,却讲得很保守;
明明很努力,却显得不自信。
这不是表达问题,是“信息不对称”造成的心理防御。
2. “怕被投资人误解”
很多投资人不懂技术,不懂模型,不懂数据收入,不懂训练成本。
而创业者往往不懂怎么讲资本语言。
例如:
投资人问:
“你们的训练成本是多少?”
创业者说:
“我们买了多少张卡、多少节点、多久训练……”
投资人直接懵:
他说的是钱吗?
再比如:
投资人问:
“未来怎么赚钱?”
创业者说:
“我们未来会开放 API、做生态、做平台策略……”
投资人又懵:
这是商业模式吗?
于是,误解累积,信任下降。
3. “怕在第一分钟就被否决”
创业者最怕的是:
自己讲得不够好
投资人听得不够懂
还没开始尽调,就结束了
所以我经常对创业者说:
“第一阶段不是你证明你很强,
而是让对方看到你值得继续聊。”
——一场双方都紧张、都害怕、都需要理解的“深度对话”**
这一阶段,是项目能否进入签约阶段的分水岭。
我常说:
普通行业的尽调是翻文件;
AI 行业的尽调是“做手术”。
因为你要从:
数据
代码
模型
算力
API
架构
合同
隐私政策
算法日志
行业规定
等几十个维度挖“隐性风险”。
难怪很多创业者直呼:
“尽调比融资还要命。”
下面我从双方视角讲清楚:
为什么这阶段这么关键,这阶段的风险如何拆解。
(一)投资人视角:六大风险点必须逐条“掀盖子”
1. 数据合法性链条不清(最危险的红灯)
投资人会检查:
数据怎么来的?
是否有授权?
是否有合同?
是否脱敏?
是否跨境?
是否含敏感数据?
数据不清,就是项目不清。
我见过一家企业用“公开抓取数据集”训练模型,结果被监管要求删除,并罚款。
投资人评价:
“模型很强,但公司没未来。”
2. 算法与代码权属存疑
包括:
使用外包代码
使用前公司代码
使用开源代码但没按许可
实习生写核心模块却没转让权利
离职员工带走代码
许多争议在尽调前没有意识到,一旦被发现,投资人心里就会亮起“警戒灯”。
3. 模型训练数据不可验证
这是 AI 行业的“黑箱问题”。
创业者常说:
“我们训练了几十亿 tokens。”
投资人会问:
“这些 tokens 来自哪里?
是否包含未经授权的内容?”
如果创业者答不上来,投资人会直接打上问号。
4. 模型输出不可控(安全风险高)
投资人会问:
模型会不会产生错误内容?
会不会出现歧视?
是否有内容审核机制?
是否符合深度合成管理要求?
如果模型输出不受控,那未来商业客户一定会投诉、甚至起诉。
5. 商业模式合规性存疑
例如:
AI 医疗是否违法?
AI 金融是否需要牌照?
AI 法律咨询是否触犯红线?
AI 教育是否违反未成年人保护法规?
投资人最怕踩政策雷。
6. 团队稳定性不足
包括:
核心研发人员可能离职
无股权绑定
团队缺少制度
技术靠一个人撑着
研发流程不规范
投资人会想:
“如果一个人离职,产品是不是就不能更新了?”
这对投资人来说,是极度危险的信号。
(二)融资方视角:尽调中最痛的三件事
1. “是尽调,不是审判”——但很多创业者感觉被审判
创业者经常问我:
“律师,他们问我这是不是不信任我?”
我说:
“不是,这是他们承担责任的方式。”
但理解归理解,情绪归情绪。
因为尽调每一个问题,都像是在质疑:
你的合法性
你的能力
你的技术
你的诚信
其实“被怀疑”是这一阶段的本质。
2. 害怕泄露商业秘密
尽调常常会要求查看:
模型权重
训练集
架构图
隐式算子设计
开源协议使用情况
算法流程
推理引擎
创业者会担心:
“万一尽调完,他们不投了,还学走了怎么办?”
这是行业里真实存在的问题。
3. 审查强度太大,影响正常业务
创业者常常会被要求:
整理庞大文档
提供隐私政策
提供数据台账
提供算力账单
提供研发管理体系
这对本来就忙到没有时间睡觉的团队来说,是巨大的压力。
在 AI 项目中,投资协议不是一纸合同,而是未来三年的“命运契约”。
有些创业者看协议,看着看着就沉默了;
有些投资人看条款,看着看着就皱眉了。
为什么?
因为在 AI 领域里,协议条款不是“格式化法律术语”,而是:
责任的边界
风险的归属
未来融资的空间
技术权利的归宿
团队自由度的范围
我见过太多项目因为某一句看似轻描淡写的条款,在一年后的投后管理中出现巨大矛盾。
所以我想把这一段写得非常具体,也非常真实。
(一)投资人最在意的 8 类条款(每一条都关系生死)
投资人不是不讲情面,而是在承担未来的不可控风险。
下面每一类条款都有一个“潜台词”。
1. 数据合法性陈述与保证(R&W)
表面条款是:
融资方承诺用于训练的所有数据合法可用。
潜台词是:
我投资你,不是投资监管处罚。
投资人担心的是:
如果数据违法,整个模型可能要重训,商业合同要取消,监管可能介入。
我遇到过最危险的情况——
创业者使用“互联网公开采集的海量文本”,但其中包含了大量敏感信息和未经授权的新闻媒体内容。
结果如何?
模型很强,数据违法,项目被叫停。
2. 算法权属条款
表面条款:
所有代码、文档、模型权属均归公司所有。
潜台词:
你是不是从 GitHub 上随便拿代码拼出来的?
投资人最怕两类情况:
外包团队开发但没转让 IP
核心算法由前公司员工开发,存在权属争议
我见过一个项目因为算法权属不清,被前雇主起诉,后来本来 3 亿融资直接泡汤。
3. 开源协议风险条款
表面条款:
不得在核心模块中使用具有强传染性开源许可的代码。
潜台词:
别把未来上市的路堵死。
AI 行业里不懂开源协议的人太多,很多人以为“开源就是免费”。
不是的,开源是有条件的。
GPL、AGPL 等协议要求“衍生作品必须开源”。
如果创业者把这些代码放进核心产品中,未来被强制要求“公开全部代码”。
对投资人来说,这是灭顶之灾。
4. 模型输出责任归属条款
这是 AI 行业最典型、也是最人性化的矛盾点。
创业者说:
“模型输出我也控制不了,我怎么负责?”
投资人说:
“你控制不了,那监管找你怎么办?”
真实的法律是:
模型缺陷 ≠ AI 无责任。
律师能做的,就是设计“责任切割机制”,让双方都有合理边界。
5. 核心团队股权绑定与竞业限制
投资人要团队稳定,创业者要自由成长。
我见过一个创业者被投资人锁 3 年不准离职,后来被行业巨头挖走也走不了。
他告诉我一句话:
“原来创业不是自由,而是另一种形式的束缚。”
但反过来,如果没有团队稳定机制:
投资人担心“项目变空壳”
团队可能“一拿钱就走”
所以协议需要平衡人的自由与项目的稳定。
6. 技术资料披露与保密条款
投资人要信息透明,融资方要保住核心机密。
这是双方在尽调中最容易冲突的点。
我见过一些投资机构要求:
查看模型权重
查看训练集
查看推理架构
查看隐式算子
甚至复制代码到他们的服务器
创业者的表情立刻变成:
“你是要投我,还是要学我?”
7. 算力与云依赖风险条款
创业者常常忽略这件事:
如果算力托管在某大型云厂商,一旦价格上涨或出现政治风险,整个业务被“捏在别人手里”。
投资人非常害怕这种风险,所以会写入条款:
算力多源化
不得过度依赖单一供应商
关键训练必须可迁移
8. 未来融资的反稀释条款
这是最常见的争议点:
投资人怕“下一轮被稀释到看不见”
创业者怕“被锁死”
最好的协议,是让双方都能继续前进,而不是互相绑架。
(二)融资方必须避免的 4 类“杀死未来”的条款
创业者第一次看投资协议,往往觉得:
“条款那么多,我都答应吧。”
但答应的后果可能是:
你用今天的生存换掉了明天的可能性。
下面 4 类条款尤其致命。
1. 绝对兜底责任(不要签)
任何写着:
“发生任何数据侵权由融资方承担全部责任。”
都不要签。
AI 是概率性系统,不存在“100% 不侵权”。
律师的建议是:
责任必须是“可控 + 可分配 + 可预期”。
2. 技术人员 3 年锁死(不要签)
如果团队人员被锁太久:
无法引入新的人才
核心员工失去激励
团队长期无法更新
这是严重影响企业成长的条款。
3. 限制企业未来授权和商业化(不要签)
例如:
投资人要求独家授权
限制企业为其他客户提供同类服务
限制企业未来出海或跨行业
这些条款会把企业锁在一个小角落里,无法扩张。
4. 高强度信息披露条款(不要签)
我见过某投资机构要求创业者:
每周提供代码提交记录
每月提供模型版本和训练日志
提供训练集分类表及标签配比
提供推理架构原型图
创业者当场沉默:
“你是投资我,还是要控制我?”
这些条款必须谈判,不然就是企业自毁壁垒。
投融资文书签完,钱到账,并不代表你终于可以安心做研发。
相反——
投后阶段才是 AI 企业法律风险的“真正战场”。
因为这时:
你的产品开始真正面对用户
模型开始真正大规模上线
算法开始产生社会影响
行业监管开始介入
商业客户开始要求责任
市场开始要求可控性
我将投后风险分成六类,用真实语言讲清楚。
(一)模型输出侵权与错误责任(最高发风险)
模型可能会生成:
未授权图片
类似文学作品
未授权音乐
错误的医疗建议
不准确的投资意见
甚至虚构事实的文本(法律称为“AI 幻觉”)
用户往往不会怪自己,他们会怪:
AI
AI 的提供者
AI 的公司
投资 AI 的资本方
这就是为什么许多投资机构开始设置“AI 内容安全委员会”。
(二)算法歧视与公平性(监管最关注)
无论你承认不承认,AI 可能会:
偏好某一类求职者
偏向有钱人
偏向某类发言
偏向某类人群数据
这些本身并不是模型“故意的”,但法律要求:
算法不能有歧视性效果。
投资人说:
“公平性不是道德要求,是生存要求。”
(三)跨境数据问题(最复杂的制度风险)
AI 企业常常使用海外云服务或训练集。
但这一动作可能触犯:
数据跨境安全评估
算法出口管制
国别监管条款
算力境外扩张限制
我见过一家 AI 企业因为从某国外云平台迁移数据,被认为“未经审批进行跨境传输”,罚了几十万。
(四)内容安全与深度合成管理(AIGC 企业的必考题)
监管要求:
必须标注 AI 生成
必须识别用户滥用
必须建立内容审核系统
必须防止虚假、有害信息扩散
创业者常说:
“我没有能力控制用户的输入。”
但监管会说:
“你必须为结果负责。”
(五)核心人员流失(最真实的企业痛苦)
AI 项目里,“人”是资产的一部分。
我见过一个项目,核心算法工程师离职后,公司花六个月都没有办法把模型更新。
投资人气愤,创业者无奈。
那一刻,我特别能体会“技术不是代码,而是人心”。
(六)与商业客户的法律责任纠纷(最常见的投后诉讼)
典型场景包括:
AI 医疗误诊
AI 金融错判
AI 质检漏检
AI 预测错误导致损失
AI 设计侵权
每一个案例,成本都不小。
所以合同里必须提前:
封顶赔偿
限制责任
写明“不构成法律意见或投资建议”
写明“AI 有概率性”
写明“客户需进行二次验证”
否则,一旦发生事故,AI 创业公司根本无法承担。
我一直觉得,在 AI 投融资中,投资人与创业者不是对立关系,而是:
一边提着火把,一边提着水桶,一起在黑暗中走路的人。
双方都在寻找一个“可以信任的边界”。
下面我用一张对照表,把所有复杂内容整理成一张“人性化风控地图”。
风险类型
投资人最担心
创业者最担心
平衡机制(律师建议)
数据合法性
违法 → 模型废掉
给资料 → 商业秘密泄露
提供摘要 + 分级披露
算法权属
代码不是你的
要求过度披露源码
第三方代码审计
开源风险
GPL 污染项目
误解开源条款
开源扫描与合规清单
模型输出风险
投后被告
被要求绝对兜底
责任切割机制
团队稳定性
核心走人
被锁死 3 年
股权激励 + 竞业合理化
未来融资
被稀释
被限制扩张
合理优先权设计
算力风险
云厂商断供
迁移成本高
多云架构要求
内容安全
监管处罚
审查成本高
建立自动审核体系
我一直觉得,人工智能时代的投融资,比任何时代都更需要温度。
因为 AI 不只是技术,它是:
赋予普通人能力的工具
改变行业的力量
高风险系统
监管重点
也是对未来社会影响最大的科技之一
我见过投资人真诚关注模型安全;
也见过创业者因为监管压力失眠数月;
也见过双方因为一个条款陷入僵局,但心里都知道——
他们想要的不是胜负,而是前进。
所以,法律条款不是冷冰冰的束缚。
而是——
保护创新者继续创新,保护投资者继续投资,保护行业不被风险摧毁。
我想用一句话结束全文:
AI 投融资不仅仅是资本与技术的交易,而是人类对未来的共同承担。
每一个条款都不是阻碍创新,而是让创新走得更稳。