人工智能發(fā)展中的環(huán)境挑戰(zhàn)與解決途徑
近期,新華社發(fā)表文章,對人工智能技術的應用提出了批評性意見。在《警惕“AI污染”亂象》一文中,文章提到,自去年以來,生成式人工智能在全球范圍內引發(fā)了**關注,其創(chuàng)新性應用為眾多行業(yè)和用戶帶來了積極影響。然而,正如硬幣的兩面,生成式人工智能的普及也伴隨著一系列負面效應,尤其是“信息垃圾”引發(fā)的“AI污染”問題日益嚴重。
隨著人工智能技術的迅猛發(fā)展,互聯(lián)網內容創(chuàng)造領域經歷了一場**。但與此同時,技術的**應用也引發(fā)了一系列挑戰(zhàn):
一些流行的社交媒體平臺上,出現了大量由AI制造的虛假賬戶;
在某個小說發(fā)布平臺上,一個賬號依賴AI技術“創(chuàng)作”內容,能夠做到日更50部小說,月產量達到數千萬字數,但這些內容常常缺乏邏輯連貫性,語言空洞無物;
在學術領域,AI內容創(chuàng)作的問題也暴露無遺。一位**高校的學者在SCI期刊上發(fā)表的論文,因使用了AI生成的插圖,存在眾多錯誤,*上線3天便被撤回,成為學術界的笑柄……
隨著人工智能技術的**應用,其在新聞和信息傳播領域的負面影響逐漸顯現,引起了**關注。AI技術能夠生成、偽造或篡改文本、圖片、音頻和視頻,制造出大量質量低劣、真?zhèn)坞y辨的“信息垃圾”,對此進行**審視已變得尤為迫切。
01
AI對新聞領域的滲透
新聞真實性的嚴峻挑戰(zhàn)
人工智能的進步為新聞行業(yè)帶來了**性的變化,從傳統(tǒng)的人工采編向智能化、高效率的方向發(fā)展。然而,AI技術可能會復制或放大現有數據中的錯誤,產生虛假信息和宣傳,新聞機構在使用AI時,也面臨著維護真實性和公信力的重大挑戰(zhàn)。
一些MCN機構為了吸引流量,利用AI軟件制造虛假新聞,導致大量網絡謠言像病毒一樣傳播。今年6月中旬,一名MCN機構的實際控制人因利用AI軟件制造虛假新聞并**傳播,擾亂公共秩序,被警方行政拘留。據警方通報,該控制人運營5家MCN機構,管理賬號842個,自今年1月以來,通過AI軟件制造虛假新聞,**峰時一天能產出4000至7000篇。
新華社在《警惕AIGC數據污染“稀釋”人類原創(chuàng)》一文中提醒,“生成偽造虛假內容,擾亂公共秩序”:生成式人工智能可以根據人的指令生成不存在的內容,極易被用于自動生成虛假新聞和謠言。深度偽造技術(DeepFake)正在快速發(fā)展,圖片偽造、音頻合成和視頻換臉在生成式AI的幫助下變得輕而易舉,這些虛假內容能夠以逼真的形式迅速傳播,帶來嚴重的社會影響。
在《警惕“AI污染”亂象》一文中提到:清華大學新聞與傳播學院新媒體研究中心今年4月發(fā)布的一份研究報告顯示,近一年來,經濟與企業(yè)類AI謠言量增速達99.91%。美國調查機構“新聞守衛(wèi)”稱,生成虛假文章的網站數量自2023年5月以來激增1000%以上,涉及15種語言。一些**認為,AI制造的“信息垃圾”產量龐大,且辨別難度較大、篩選成本較高。
版權歸屬問題的復雜性
傳統(tǒng)版權通常歸屬于創(chuàng)作者或創(chuàng)作者雇主,但AI版權可能歸屬于訓練數據的提供者、算法開發(fā)者、系統(tǒng)操作者甚至*終用戶,這導致新聞、出版機構在面對科技企業(yè)推出的AI工具整合新聞和內容時,可能損失相關流量和廣告收入。
當地時間10月21日,《華爾街日報》母公司道瓊斯和《紐約郵報》對人工智能初創(chuàng)公司Perplexity提出侵權訴訟,指控后者抄襲受版權保護的新聞內容,并利用這些新聞內容生成對用戶提問的回復,從而搶走了原本會流向這兩家出版商網站的流量。而在一周前的10月15日,Perplexity剛剛收到了來自《紐約時報》的警告,要求其在10月30日前停止使用《紐約時報》的內容。這一事件也引起了網友的**討論。
02
探討應對策略
新華社在《警惕“AI污染”亂象》一文中提出了以下建議:
首先,加強AI學習和生成機制的源頭管理。需要明確AI平臺對其使用的原始素材的控制責任,以及對生成內容的監(jiān)管責任,制定AI內容生成的規(guī)范,強制對AI生成內容進行明確標識,增強AI技術的透明度和可解釋性。
其次,增強對AI生成內容的審查和監(jiān)管。相關監(jiān)管部門和企業(yè)應將重點放在AI生成內容的審查和審核上,開發(fā)專門的審查算法,規(guī)范內容的流入和傳播,及時識別和刪除低質量或虛假內容。
再次,提升用戶對AI生成內容的識別能力。網民應保持理性,提高防范意識和識別能力,使用反向搜索工具,核查內容來源和作者信息,分析內容的語言和結構特征,以辨別真?zhèn)魏蛢?yōu)劣。
對于新聞從業(yè)者,除了上述措施外,還應注意以下兩點:
一方面,界定AI的應用范圍。在新聞領域中,明確AI的應用邊界是至關重要的。需要確定哪些新聞內容可以由AI生成,哪些必須由人工撰寫。例如,對于需要高度準確性和專業(yè)判斷的重大時政新聞和深度調查報道,應禁止使用AI生成,以確保新聞的**性和可靠性。同時,規(guī)范AI在新聞編輯、分發(fā)等環(huán)節(jié)的使用,防止過度依賴AI導致新聞質量下降。
另一方面,提升對AI生產內容的識別能力。提高新聞從業(yè)人員和公眾對AI生成內容的識別能力是應對AI帶來問題的關鍵措施。新聞從業(yè)人員應通過培訓和教育,了解AI的工作原理和特點,掌握辨別AI生成內容的方法和技巧。
AI的發(fā)展是大勢所趨,它為人類帶來了前所未有的機遇和挑戰(zhàn)。我們既要充分利用AI的優(yōu)勢,又要高度重視其帶來的問題,加強監(jiān)管和治理,共同維護健康的網絡生態(tài)環(huán)境。