您當(dāng)前所在的位置:首頁 > 搜視 > 直播南京 > 視頻

牛咔快評 | 技術(shù)向善的價值底線必須堅(jiān)守

2025年11月08日
過去常說“耳聽為虛,眼見為實(shí)”,現(xiàn)在“眼見也不一定為實(shí)”了,從冒用形象搞虛假代言,到合成災(zāi)情事故制造謠言,AI亂象已滲透廣告營銷、信息傳播等多個領(lǐng)域,帶來的危害也特別多。首先,AI直接把侵權(quán)門檻拉低到“隨便搞”的程度——不管是AI換臉替人代言,還是克隆聲音搞詐騙,用AI都能輕松實(shí)現(xiàn)。就連有些網(wǎng)友隨手發(fā)的娛樂內(nèi)容,說不定都在不知不覺中侵權(quán)了。更要命的是,AI被濫用后還沖擊了正常的社會秩序。之前有個“湖北宜昌游船側(cè)翻、多人落水”的新聞,鬧得沸沸揚(yáng)揚(yáng),結(jié)果一核實(shí),是有人用AI做的假新聞!由于AI生成功能愈加強(qiáng)大,不僅畫面真假難辨,還可能隱藏著價值觀混亂、廣告誘導(dǎo)等問題。央視網(wǎng)最近報(bào)道,某AI問答軟件里有種叫“GEO”的廣告投放,當(dāng)你向這款A(yù)I軟件咨詢一類產(chǎn)品的購買建議時,它會悄悄把廣告產(chǎn)品放在推薦前列,悄悄影響你的選擇。為整治亂象,今年6月,中央網(wǎng)信辦“清朗”行動處置了3500多款違規(guī)AI產(chǎn)品,清理了96萬多條違法信息;北京等地把AI虛假宣傳納入《廣告法》管,明確禁止用AI偽造他人肖像、聲音引流;9月施行的《人工智能生成合成內(nèi)容標(biāo)識辦法》,還要求AI生成的視頻必須加顯著標(biāo)識,讓人一眼能分清。法治絕對是治理AI亂象最靠譜的屏障。不過,光靠監(jiān)管還不夠,咱們得多方一起發(fā)力,讓AI回歸工具本身的樣子。平臺作為內(nèi)容直接管理者,必須扛起責(zé)任,從源頭擋住濫用風(fēng)險;我們普通人面對AI也得提升辨別能力,練就一雙“火眼金睛”。說到底,技術(shù)發(fā)展本來是為了讓生活更好,技術(shù)本無善惡,但用它的人必須心存善意、明確責(zé)任。把AI的使用放在明處,把該負(fù)的責(zé)任劃分清楚,才是對用戶負(fù)責(zé)、對社會負(fù)責(zé)。
  • 來源:南京廣播電視臺
  • 編輯:楊旭