资讯频道 > > 正文
2025-03-31 21:11:40
来源:zclaw

AI时代,如何让治理(li)跟(gen)上技术步伐?,人工智(zhi)能,应用,相关

字体:

从“AI儿科医生”参与病情会诊,到“AI数智(zhi)员工”辅(fu)助提供公共服务,再(zai)到人形机器人进(jin)厂上班……全球人工智(zhi)能技术进(jin)入(ru)爆发式发展阶段,正以(yi)前所未有的速度走入(ru)千家万户、改(gai)变千行百业。当AI重(zhong)塑我们熟悉的世界,随之而(er)来(lai)的机遇与挑战如何应对?应用与治理(li)如何平(ping)衡推进(jin)?

正在举行的博鳌亚洲论坛2025年(nian)年(nian)会上,国内外技术前沿领(ling)域专家、学者和企(qi)业代表(biao)就相关话题展开热烈讨论。

适应AI“新常态”

当下,人工智(zhi)能加速赋能千行百业,进(jin)入(ru)教育、医疗、政务、金融等场景。越来(lai)越多人感(gan)受到AI带来(lai)的便利(li)。从无人驾驶、机器人到脑机接(jie)口,大众对AI应用产生更多期待。

毕马(ma)威中国首席(xi)技术官及创新主管(guan)合伙人刘建刚(gang)表(biao)示,人工智(zhi)能已经不是(shi)一个未来(lai)概念,对很多企(qi)业而(er)言,利(li)用人工智(zhi)能加速决策、创新产品、优化运营,已不是(shi)选择题,而(er)是(shi)必答题。

数据显示,2024年(nian)我国完成(cheng)备案并上线(xian)提供服务的生成(cheng)式人工智(zhi)能大模型接(jie)近200个,注册用户超6亿;工业机器人装机量占全球过半。

今年(nian)政府工作报告(gao)提出(chu),持(chi)续推进(jin)“人工智(zhi)能+”行动。国务院研究室副主任陈昌(chang)盛(sheng)表(biao)示,今年(nian)将开展新技术新产品新场景大规模应用示范行动,在确保安全前提下,加快人工智(zhi)能在低空经济、教育培(pei)训、医疗健(jian)康(kang)等多场景应用。

中兴通讯股(gu)份有限公司董事(shi)长李自学表(biao)示,当前人工智(zhi)能通用型应用加速普及,但在行业领(ling)域还存在不好(hao)用、不易用、不会用等问题。应在通用基础大模型上,结合不同行业应用场景需求,加强专属(shu)领(ling)域定制与深度训练,让大模型成(cheng)为懂行业的“能工巧匠”,促(cu)进(jin)人工智(zhi)能与产业真正结合。

有观点认(ren)为,未来(lai)可能出(chu)现自然人、机器人、数字人并存交(jiao)互的社会形态。《博鳌亚洲论坛亚洲经济前景及一体化进(jin)程2025年(nian)度报告(gao)》指出(chu),随着人工智(zhi)能技术的广(guang)泛应用,部分(fen)行业就业受到严重(zhong)影响。

“替代部分(fen)工作岗位是(shi)技术变革中的必然过程,有些岗位受影响,也会有新岗位出(chu)现。”vivo高(gao)级副总裁、首席(xi)技术官施玉坚说,每个人都(dou)要通过学习(xi)不断(duan)提升综合素质,适应AI带来(lai)的变化。

多位与会嘉宾表(biao)示,除了加强人工智(zhi)能知识(shi)技能教育培(pei)训,还应考虑制定新的社会保障政策,加强对受冲击劳动者群体的兜底保障。

加固“安全护栏”

在博鳌亚洲论坛多场人工智(zhi)能相关活动上,与会嘉宾普遍认(ren)为,随着AI能力越来(lai)越强,AI不可控(kong)、被滥(lan)用等风险会越来(lai)越高(gao),在推广(guang)应用中要加固“安全护栏”。

社交(jiao)平(ping)台上,不少人吐槽AI一本正经地胡说八道。清华大学公共管(guan)理(li)学院院长朱旭峰表(biao)示,这是(shi)AI幻觉,指大模型有时混(hun)淆事(shi)实和虚构,在看似是(shi)事(shi)实的句子中插入(ru)错误细节。AI胡编乱造可能产生误导,甚至会引发严重(zhong)后果,特别是(shi)在医疗、金融、法律等对信息真实性和准确性要求极高(gao)的领(ling)域。

“技术暂时不成(cheng)熟,我们不能因噎废(fei)食。”朱旭峰说,要加大对技术的开发和使用,推动AI幻觉等问题随技术不断(duan)进(jin)步逐步解决。

AI应用过程中需要使用大量数据,数据安全与隐私(si)保护备受公众关注。多位与会嘉宾表(biao)示,现实中,具体应用场景下哪些数据必须收集,敏感(gan)信息数据如何避免泄露等,需要进(jin)一步明晰相关制度规则(ze)。

施玉坚认(ren)为,随着AI技术的普及,企(qi)业对数据的依赖程度日益加深,如果不采(cai)取相应的安全措(cuo)施,就可能造成(cheng)数据泄露的风险。“数据要进(jin)行脱敏或(huo)加密(mi)处(chu)理(li),增强传输和存储过程中的安全性。”

AI技术的滥(lan)用误用是(shi)显著风险之一。有统计显示,2024年(nian)全球发生的AI风险事(shi)件,超过30%与利(li)用AI进(jin)行深度伪造相关。深度伪造名人形象、声音进(jin)行虚假宣传甚至诈骗不时见诸(zhu)报端。

多位嘉宾表(biao)示,AI深度伪造现象层出(chu)不穷,主要在于造假成(cheng)本低,追查、执法成(cheng)本大,应针(zhen)对AI误用滥(lan)用完善相关法律法规,加大惩罚力度。

伴随AI产生的伦理(li)道德争议也不容忽视。中国科学院自动化研究所研究员、联(lian)合国人工智(zhi)能高(gao)层顾问机构专家曾毅认(ren)为,伦理(li)安全应作为人工智(zhi)能大模型发展的“基因”,如何在追求技术进(jin)步的同时坚守道德底线(xian),是(shi)需要共同面对的重(zhong)要课题。

“人工智(zhi)能的发展与安全不是(shi)互相掣肘的关系。”曾毅说,最新研究表(biao)明,可以(yi)在几乎不影响人工智(zhi)能大模型求解能力的同时,通过科学的方式提升其安全能力。

共同应对治理(li)挑战

如何让治理(li)跟(gen)上AI技术步伐?与会嘉宾表(biao)示,AI治理(li)是(shi)一个全球性的复杂问题,需要达成(cheng)世界共识(shi),推动各领(ling)域相互协作。目前,主要经济体都(dou)在加速相关立法进(jin)程。

在AI治理(li)中,中国坚持(chi)统筹发展和安全,有关部门已发布多项AI治理(li)指导文件。其中,前不久发布的《人工智(zhi)能生成(cheng)合成(cheng)内容标识(shi)办法》重(zhong)点解决“哪些是(shi)生成(cheng)的”“谁生成(cheng)的”“从哪里生成(cheng)的”等问题,推动由生成(cheng)到传播各环节的全流程安全管(guan)理(li)。

在芬兰前总理(li)埃(ai)斯(si)科·阿霍看来(lai),政策制定者、企(qi)业家、科学家等利(li)益相关方应聚在一起,建立共识(shi),通过制定标准来(lai)应对AI带来(lai)的治理(li)挑战。

“AI医生”看病出(chu)了问题算谁的责任?当人工智(zhi)能系统产生不良(liang)后果,如何确定责任归属(shu)也需进(jin)一步厘清。“多位嘉宾都(dou)提到一个观点,不要让人工智(zhi)能完全代替人的决策,这是(shi)人工智(zhi)能应用时必须注意的问题。”曾毅说。

高(gao)质量数据是(shi)AI应用大规模落地的重(zhong)要支撑,构建一个完善而(er)成(cheng)熟的数据市场也十分(fen)重(zhong)要。以(yi)色列民主研究所高(gao)级研究员特希拉·施瓦茨·阿尔(er)特舒勒(le)认(ren)为,应根据实际情况,建立符合自身需要的数据监管(guan)方案与路径。

与会嘉宾表(biao)示,AI时代到来(lai),要坚持(chi)应用与治理(li)平(ping)衡、创新与监管(guan)并重(zhong)、全球化与本土化协同,防(fang)止数字鸿沟变成(cheng)智(zhi)能鸿沟,让AI真正成(cheng)为推动社会进(jin)步的普惠力量。

(新华社)

发布于:广(guang)东省
【纠错】 【责任编辑:zclaw】

Copyright ? 2000 - 2025 All Rights Reserved.