小貓扭著屁股跳舞、小狗揉面包餃子、嬰兒駕駛飛機沖上云霄……近年來,越來越多的AI生成視頻在互聯網上傳播,這些視頻中的形象栩栩如生,動作流暢自然,令人真假難辨。但在傳遞趣味和創意的同時,這些視頻也成為虛假信息傳播的溫床。
AI技術的蓬勃發展,為內容創作帶來了翻天覆地的變革,極大地提高了內容生產效率,豐富了內容的形式和種類,在諸多領域展現出巨大的應用潛力。但與此同時,其帶來的問題也日益凸顯:虛假信息借AI之手肆意傳播,尤其是在中老年群體中,難以辨別的AI視頻、音頻極易成為謠言傳播的渠道。
自9月1日起,國家互聯網信息辦公室、工業和信息化部、公安部、國家廣播電視總局四部門聯合發布的《人工智能生成合成內容標識辦法》(以下簡稱《辦法》)正式施行,要求所有AI生成的文字、圖片、視頻等內容都必須依法添加相應的身份標識。
當然,讓AI“亮明身份”,絕非簡單的“一刀切”式治理。在不同場景中,AI生成內容的價值與風險并不相同。在影視創作中,AI可輔助生成特效畫面,為藝術創新賦能;在教育科普領域,AI能將抽象知識轉化為生動內容,提升傳播效果。但在新聞報道、社科研究等強事實性領域,AI生成內容若缺乏標識,極易令人混淆真實與虛構,必須嚴格規范。因此,《辦法》落地過程中,還需結合不同應用場景的特性,細化實施范圍與方式。
政策的出臺只是起點,AI技術與社會發展的良性互動,需要多方主體的共同參與。對監管部門而言,需持續跟蹤技術發展動態,及時優化標識規則,防范標識被篡改、AI內容規避檢測等新問題。對平臺與創作者來說,應主動標識,給予公眾知情權。對公眾而言,需要在接收信息時多一份審慎,提升對AI內容的辨別能力。
AI技術的進步不只是算法的演進和算力的提升,更是一場關于邊界與責任的實踐。從約束技術濫用到引導技術向善創新,只有在創新與規范之間取得平衡,才能讓AI技術真正服務于人類。