媒體業人工智慧憲章:無國界記者諮詢媒體與公民社會

為擬定規範媒體業使用人工智慧(AI)的憲章,無國界記者(RSF)邀請媒體和公民社會組織 ——尤其是媒體專業組織——提供意見。其貢獻可對無國界記者計畫設立的委員會提供協助,為媒體專業人員確定應對人工智慧技術應用急遽增長的適當措施。
更新:徵求意見的截止日期現定為2023年10月18日。
探討此議題的國際委員會成立後,將交由世界各地的媒體專業人員和公民社會組織發表其看法。為將他們對媒體倫理如何應用於人工智慧的想法整合至委員會所擬規範,無國界記者提供此表單連結以便其分享觀點。提交意見的截止日期為2023年10月11日。
「無國界記者希望盡可能納入世界各地的媒體和組織,共同探討此一對新聞資訊完整性至關重要的主題。我們敦促公民社會響應號召,分享他們對新聞倫理如何用於人工智慧的展望。」
德洛瓦(Christophe Deloire)
無國界記者秘書長
此表單展現出人工智慧憲章委員會的四大工作主題,期使媒體可與獲頒諾貝爾和平獎的記者瑞薩(Maria Ressa)擔任主席之委員會成員就相同議題發表意見。各主題分別對應於媒體必須因應的特定挑戰。無國界記者邀請媒體專業人員表達看法,指出應採取哪些措施以有效因應:
- 資訊收集:生成式人工智慧(GAI)—— 一套可依需求產生文本、影像、音訊和其他媒體內容的人工智慧工具——的出現大幅推動合成內容產製。但記者須可繼續快速準確地識別真實內容。媒體和記者應採用哪些工具和工作方法應對這些新挑戰?
- 資訊處理:媒體業使用人工智慧工具的程度漸增,此情況讓人對可靠性、偏見和資料外洩等問題有所擔憂。分析資料和產生內容的演算法可能改變新聞倫理的基礎。再者,人工智慧系統訓練資料集中固有的偏見會在其生成內容中放大。此外,使用人工智慧擴大觸及受眾人數可能助長偏重煽情的敘事傳散,而犧牲平衡細緻的報導。最後,人工智慧系統不夠透明亦導致問題。記者使用的人工智慧系統應具備哪些特徵?應建立什麼工作程序,才可確保所製作新聞內容符合優質新聞的標準?
- 資訊傳播:社群媒體中無所不在的推薦演算法將使用者帶往特定方向,並對網路內容的可見度和傳播產生強烈影響,而搜尋引擎則犧牲其他內容,並將流量大量導向特定內容。除大型平臺所帶來的危險以外,媒體本身也越來越常利用精密技術傳播符合自身利益的內容。不久後,整合至媒體網站的搜尋引擎和媒體行動應用程式的推播機制將可能被人工智慧所強化。什麼才是最能實現獲取可靠新聞資訊權利的方式?
- 媒體相對於人工智慧產業公司的策略定位:在新聞的傳播上,新聞業持續受到平臺仲介所干擾,如今另須對付新出現的參與者——人工智慧製造商,後者既可與媒體競爭,又能為其提供產製優質新聞和資訊所需的工具。總體而言,媒體公司應如何對待人工智慧供應商和大型科技公司?
為進一步探討這些問題,無國界記者公開委員會的兩份草擬文件。第一份文件〈人工智慧對知情權提出的挑戰〉(Challenges raised by AI regarding the right to information)提供了所面臨挑戰的週詳清單。第二份文件〈人工智慧與媒體倫理:現有參考資料和概述〉(AI and Media Ethics : Existing References and overview)則概略說明人工智慧和新聞業現有的各種倫理倡議,以強調無國界記者所發起「媒體業人工智慧憲章」計畫試圖提供的創新和開拓面向。