亚洲一区图片,青青青国产在线,国产色婷婷精品综合在线观看,色综合天天,亚洲福利视频一区二区三区,国产在线视频专区,午夜精品区

首頁(yè) > 新聞 > 國(guó)內(nèi)時(shí)政更多新聞

【科創(chuàng)之聲】“AI伙伴”應(yīng)在規(guī)范中成長(zhǎng)

2026-01-05 05:59 來(lái)源:經(jīng)濟(jì)日?qǐng)?bào)
查看余下全文
首頁(yè) > 新聞 > 國(guó)內(nèi)時(shí)政更多新聞

【科創(chuàng)之聲】“AI伙伴”應(yīng)在規(guī)范中成長(zhǎng)

2026年01月05日 05:59 來(lái)源:經(jīng)濟(jì)日?qǐng)?bào)
[字號(hào) ]

日前,國(guó)家互聯(lián)網(wǎng)信息辦公室公布《人工智能擬人化互動(dòng)服務(wù)管理暫行辦法(征求意見(jiàn)稿)》,首次針對(duì)“AI陪伴”類(lèi)服務(wù)提出系統(tǒng)性規(guī)范,并向社會(huì)公開(kāi)征求意見(jiàn)。其中,連續(xù)使用超2小時(shí)彈窗提醒退出、用戶自殺自殘時(shí)需轉(zhuǎn)人工接管等條款引發(fā)廣泛關(guān)注。

當(dāng)前,從智能客服到虛擬陪伴,從教育輔導(dǎo)到心理咨詢,人工智能擬人化互動(dòng)服務(wù)已深度融入經(jīng)濟(jì)社會(huì)發(fā)展各領(lǐng)域,成為AI技術(shù)應(yīng)用的重要方向。但近年來(lái)涉情感陪伴安全事件頻發(fā),比如美國(guó)某平臺(tái)就因涉嫌在人機(jī)交互中誘導(dǎo)青少年自殺而被訴。

AI擬人化互動(dòng)服務(wù)的最大賣(mài)點(diǎn)是“像人”,但最大隱患就在于“太像人”,其核心問(wèn)題集中在四大維度。認(rèn)知混淆風(fēng)險(xiǎn):高仿真的情感交互容易讓用戶模糊虛擬與現(xiàn)實(shí)邊界,甚至誤將AI視為具備真實(shí)情感的生命體。心理健康隱患:部分服務(wù)通過(guò)算法迎合強(qiáng)化用戶偏執(zhí)思維,極端情況下可能誘導(dǎo)自殺自殘等危險(xiǎn)行為,對(duì)心理脆弱群體構(gòu)成威脅。隱私數(shù)據(jù)安全:用戶交互信息可能被違規(guī)用于模型訓(xùn)練,存在泄露或?yàn)E用風(fēng)險(xiǎn)。特殊群體保護(hù):未成年人易陷入沉迷,老年人易遭遇情感操控。這些問(wèn)題不僅侵害個(gè)體權(quán)益,更可能沖擊社會(huì)倫理秩序,亟需制度約束。

細(xì)看《辦法》條款,四大亮點(diǎn)直指現(xiàn)實(shí)痛點(diǎn)。

針對(duì)認(rèn)識(shí)混淆風(fēng)險(xiǎn),辦法將身份透明作為核心前提,要求提供者顯著提示用戶正在與人工智能而非自然人進(jìn)行交互,在首次使用、重新登錄等關(guān)鍵節(jié)點(diǎn)動(dòng)態(tài)提醒,從源頭破解認(rèn)知混淆問(wèn)題。

針對(duì)心理健康隱患,辦法要求提供者應(yīng)當(dāng)建立應(yīng)急響應(yīng)機(jī)制,對(duì)自殺自殘等極端情境實(shí)行人工接管并聯(lián)絡(luò)用戶監(jiān)護(hù)人、緊急聯(lián)系人,設(shè)置2小時(shí)強(qiáng)制休息彈窗等防沉迷措施。

針對(duì)隱私數(shù)據(jù)安全,辦法要求提供者應(yīng)當(dāng)采取數(shù)據(jù)加密、安全審計(jì)、訪問(wèn)控制等措施保護(hù)用戶交互數(shù)據(jù)安全,不得向第三方提供用戶交互數(shù)據(jù),賦予用戶數(shù)據(jù)刪除權(quán)。

針對(duì)特殊群體保護(hù),辦法專(zhuān)門(mén)設(shè)立了對(duì)未成年人和老年人用戶的條款,明確未成年人模式的使用權(quán)限與監(jiān)護(hù)人管控功能,禁止提供模擬老年人用戶親屬、特定關(guān)系人的服務(wù),要求引導(dǎo)老年人設(shè)置服務(wù)緊急聯(lián)系人。

可以看出,《辦法》的核心,是技術(shù)有責(zé)。人工智能不是人,但一旦介入人的情感、決策、生命安全,就必須承擔(dān)相應(yīng)責(zé)任。禁止散布謠言、禁止誘導(dǎo)自殺、禁止情感操控、禁止套取隱私……《辦法》劃定了“AI伙伴”一系列不可為的底線,構(gòu)建起全鏈條風(fēng)險(xiǎn)防控體系。算法設(shè)計(jì)要可審計(jì),內(nèi)容輸出要可追溯,極端場(chǎng)景要有人兜底,將軟倫理轉(zhuǎn)化為硬杠杠,把事后道歉前置為事前預(yù)防。唯有如此,才能避免AI反噬人類(lèi)。

人工智能可以無(wú)限接近人,但永遠(yuǎn)不能替代人?!掇k法》的出臺(tái),是給“AI伙伴”立規(guī)矩,更是給人類(lèi)用戶留后路。只有當(dāng)算法學(xué)會(huì)有所不為,技術(shù)才能真正向善而行。畢竟,我們需要的不是完美戀人或數(shù)字孝子,而是一個(gè)安全、可控、有溫度的AI工具。唯有讓“AI伙伴”在規(guī)范中成長(zhǎng),才能使其真正賦能美好生活。(本文來(lái)源:經(jīng)濟(jì)日?qǐng)?bào) 作者:佘惠敏)

(責(zé)任編輯:王炬鵬)