财新传媒

张亚勤:生成式AI需要边发展边治理

文|财新 王力为
2024年03月24日 21:46
就像自动驾驶有L0到L5的分级,大模型也应该有分级监管。呼吁企业、政府将10%的AI相关经费投到大模型风险的研究里去
资料图:张亚勤。图:视觉中国

  【财新网】“到2030年,我估计机器人(的数量)比人要多得多,我们的车可能有10%是无人车,那时风险会规模化,如果大模型再连到经济、金融等体系,风险会是相当大的。”清华大学智能产业研究院院长、中国工程院院士张亚勤对AI风险如是分析。

  张亚勤是在3月24日举行的“中国发展高层论坛2024年年会”人工智能发展与治理专题研讨会上提示上述风险的。张亚勤在演讲中首先简要介绍了AI在当前的大模型阶段接下来的发展趋势。比如自主智能(机器可以去定任务、规划路径、自我升级、自我编码)、从信息智能走向和物理世界(无人车、无人机、机器人)的连结、生物智能(大模型与人类的大脑、生物体连在一起)等等。

责任编辑:张继伟 | 版面编辑:王永
推广

财新网主编精选版电邮 样例
财新网新闻版电邮全新升级!财新网主编精心编写,每个工作日定时投递,篇篇重磅,可信可引。
订阅