問:近日,杭州互聯網法院審結全國首例因生成式人工智能模型“幻覺”引發的侵權糾紛案。AI承諾生成內容有誤將賠償,算數嗎?服務提供者負有什么樣的責任?
答:現實操作中,AI帶來很多便利,但并非全知全能,其生成的答案可能包含看似合理實則錯誤的“幻覺”信息。杭州的案例中,AI提出“如果生成內容有誤,我將賠償您10萬元”,從而引發相關糾紛。從法院判決看,在生成式人工智能場景中,AI的承諾并不代表平臺的意思。這既為AI生成內容劃出紅線,也進一步厘清了服務提供者的注意義務邊界。
AI不具有民事主體資格
法院判決明確,AI不具有民事主體資格。在該案中,AI自行生成的賠償承諾也不能視為服務提供者的意思表示。也就是說,AI不是服務提供者的傳達人、代理人或代表人。除非服務提供者通過AI模型來設定或傳達相關信息,否則類似“生成內容有誤將賠償”的承諾是沒有法律效力的。
服務提供者有嚴格審查義務
依據《生成式人工智能服務管理暫行辦法》,生成式人工智能服務屬于服務范疇。AI生成內容雖不是我國產品質量法意義上的產品,但服務提供者有嚴格審查義務。例如,發現違法內容,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改。同時,需以顯著方式向用戶提示AI生成內容可能不準確,發出“警示提醒”等,防止用戶產生不當信賴。
建立健全投訴舉報機制
據統計,截至2025年3月,共有346款生成式人工智能服務完成備案。相關方應落實法律法規要求,完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引;提供安全、穩定、持續的服務;建立健全投訴、舉報機制,暢通投訴舉報通道。
來源:《經濟日報》





資訊頻道