您好,欢迎观临半岛体育官网!

咨询热线:

040-88888888

半岛·体育网页版入口薛澜:中国大部分模型都是“套壳”算力也被“卡脖子”了

发布时间:2024-04-04 21:32人气:

  4月1日消息,近期举行的中国数字经济发展和治理学术年会(2024)上,清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜教授以《人工智能发展的治理挑战》为题进行了主旨演讲。

  薛澜在演讲中表示,中国 AI 最新发展态势基本平稳,现在国内有超过130个大模型。尽管单从量上讲进步很大,但实际上中国大模型还存在不少问题。他提到有不少大模型是用“套壳”和拼装的方式构建的,而且算力也被“卡脖子”了。

  “目前很多国外的模型是开源的,那么在开源的基础上进行套壳就可以形成一个套壳的大模型,接着再将一些这样的大模型拼装在一起就变成更大的大模型,这种方式做出来的大模型背后的原创性是有限的。另外,我们算力也被“卡脖子”,比如英伟达的GPU A100和H100被美国禁售,很多公司受到影响。”薛澜表示,此外,中国数据质量比较低,没有真正产业化,相对标准化的数据服务商还比较少,而且中国资本短视等,都是中国大模型产业下一步发展需要思考和解决的问题。

  薛澜表示,随着2022年11月份ChatGPT问世之后, AI 领域技术创新加速,尤其是以OpenAI为代表的美国技术前沿公司更是形成了你追我赶的局面。今年OpenAI推出了非常独特、跨模态的视频生成工具Sora,时长可以达到60秒,惊艳全球,将对短视频等很多媒体娱乐行业产生巨大冲击。同时,自动驾驶、广告、教育、医疗、安防等不同领域也受到很大影响并有可能成为Sora潜在的应用市场。

  “同时,美国在AI算力的核心硬件方面也有很多新突破,如Groq LPU这一新的大模型推理芯片,其制程虽然还是14nm,但由于有TSA架构,使得其特定的处理能力非常快,推理速度比GPU快10倍,但能耗只是它的1/10。”薛澜称半岛体育官网

  薛澜坦言,随着美国Groq、英伟达、OpenAI等公布多个 AI 新技术不断突破,进一步把中美大模型技术差距拉大,这对于中国的创新体系是一个很大的冲击。

  ”中国现在的创新模式还是遵循比较传统的线性模式,即从学术研究开始,到工程技术半岛体育官网,最后再到产品。这个模式无法形成研究、工程和市场间密不可分的生态,这是现在中国创新体系亟待解决的问题。“薛澜表示半岛体育官网

  薛澜指出,“中国 AI 的最新发展态势基本平稳,中国在 AI 领域发表论文全世界最多,美国是第二,中美合作的论文也很多。在AI大模型方面,现在已经超过130个大模型。如果单从量上讲进步很大,但是实际上我们的大模型还存在不少问题,因为有不少是用套壳和拼装的方式构建的。而且,我们的算力也被‘卡脖子’。

  同时,中国数据质量比较低也是一个问题。中国的数据量很大,但没有真正产业化,相对标准化的数据服务商还比较少,因为大数据服务不赚钱,公共数据企业没有意愿去清洗,定制化服务又一般收费比较高。因此,数据市场如何构建也是需要解决的问题。

  另外就是资本短视。资本短视有各种各样的原因,其中一个原因是对中国资本市场政策不稳定的担心,另外就是商业化面临一些挑战等。所有这些都是中国大模型产业下一步发展需要思考和解决的问题。”

  薛澜认为,从综合社会收益讲,生成式 AI 的渗透性非常强,对社会影响是全面的。对制造业来说,AI 有利于推动产业的数智化转型升级,在推进新质生产力和高质量发展方面潜力巨大。中国在这方面已经做了很多探索,例如,三一重工制造工厂应用 AI 技术后提高185%,生产周期30天缩短到7天。同时,AI 在推动智力密集型的服务产业规模化方面也发挥了巨大作用。

  但是,“AI 的潜在风险体现在多个层面。在个体层面,AI可能引发算法歧视、知识产权争议、信息错误等问题,这与技术本身相关。应用和开发过程中也有问题,包括数据隐私保护、防范伪造等。目前我们比较关心的是这些直接的影响,但是社会层面还有一些更长远的大问题,如劳动力结构调整、产业结构调整等影响。同时,由于劳动力结构调整,可能对收入分配影响很大,从而加剧数字鸿沟、社会不公平等问题,这些都是需要慎重考虑的。另外大模型训练的能源消耗非常厉害,现在看来可能所增加的温室气体排放也是不能忽视的。

  薛澜认为,政策制定和科技发展步调不一致,造成 AI 治理的挑战。他指出,AI 的技术发展非常快,但治理体系的变化相对慢一些——一个法律法规要出台,其实要经过一系列的论证和各方面的考虑。同时,政府端和企业端信息不对称,也给 AI 治理增加难度。传统的治理,是政府去治理和规制,而企业被规制,一般来讲是用“猫和老鼠”的游戏——企业要想办法去躲避政府的规制,政府要去挑企业的问题在哪里。但实际上,双方有很多盲区。企业不知道政府规制最关心的问题在哪儿,而技术发展可能会带来什么风险,政府也不清楚。所以双方的信息不对称,或者有时候共同无知的情况也经常出现。此外,AI 治理的另一个挑战,是在风险规制的过程中的成本不对称。薛澜举例,滥用或误用 AI 的技术成本相当低,但要去防范这种风险非常困难,所需的成本要远远高于它有可能造成的危害。最后一个挑战则来自全球治理。薛澜指出, AI 的治理是全球治理的问题,不是任何一个国家、任何一个国际组织或者一个企业独自能解决的。专业组织、国际组织、基金会、企业等组织都对这个问题有一定的治理兴趣,甚至于他们也有这方面的能力和条件,但是所有这些组织之间没有从属关系。“联合国是不是最大的?但联合国可能管不了很多企业。中国政府管中国的企业有可能,但是管不了美国的企业,”薛澜指出,一系列机构互相之间有重叠、有矛盾还都有相关的利益,希望来参与治理,这样使得全球治理体系的形成就有很大的困难。目前,全球政府均在完善生成式 AI 的监管。2023年8月,七部门公布《生成式人工智能服务管理暂行办法》开始施行。美国白宫则在2023年10月发布AI监管令,最强大的AI系统的开发者在训练模型时必须通知联邦政府。2023年11月,全球首届AI安全峰会在英国布莱切利园举办,中国、美国和欧盟在内的28个国家和地区签署了《布莱切利 AI 安全宣言》(Bletchley Declaration)。而在欧洲,《AI 法案》已在2024年3月生效。对于前述四大挑战,薛澜提出一系列建议,包括要加强安全和技术研发,尤其要加强国际合作,同时鼓励企业的自我规制,学习国际民航业、核电站等行业的自我规制机制。薛澜还特别提到地缘问题。他指出,美国国务卿布林肯把对华科技政策称为“小院高墙”,但在科技话题下,怎样才是真正的小院?薛澜提出,在 AI 领域,中美双方要加强合作,才能真正解决人类面临的各种问题。

  2023年,中国提出《全球人工智能治理倡议》,围绕 AI 发展、安全、治理三方面系统阐述了 AI 治理中国方案,包括主张建立 AI 风险等级测试评估体系,不断提升 AI 技术的安全性、可靠性、可控性、公平性;支持在充分尊重各国政策和实践基础上,形成具有广泛共识的全球 AI 治理框架和标准规范,支持在联合国框架下讨论成立国际 AI 治理机构等。

  “总体来说,中国的 AI 有雄厚积累与先发优势,形成了推动 AI 发展的总体规划,在过去发展过程中也形成了自上而下和自下而上相结合的治理框架, AI 技术也有非常广阔的应用场景。同时,中国 AI 发展未来也面临着一些挑战。

  首先是怎么样形成不同企业公平竞争的市场环境,包括民营企业、国有企业和外资企业、包括大中小企业等等,这种多元公平竞争的市场环境对 AI 领域发展至关重要;其次是产业生态问题,如何建立企业、资金、人才等多方面主体和多方面资源能够有效流通协调一致的产业生态。第三是治理问题,怎么形成可预期、包容审慎、敏捷有效的治理框架,为形成鼓励 AI 发展的市场环境和产业生态奠定制度基础;最后,就是怎么聚集全球顶尖 AI 人才,OpenAI是全世界各国不同优秀人才聚集发展起来,人才多元化程度很高,中国在这方面需要加大开放力度。”薛澜坦言。

  薛澜在演讲结尾强调,“在各方面的共同努力下,中国 AI 领域能够抓住发展机遇,克服重重困难,迎接多方面的挑战,有效防控各种风险,让 AI 的发展为中国现代化建设服务,为世界和平发展服务。”

  清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。


040-88888888