2024年03月15日 17:43
歐洲議會正式通過《人工智能法案》,是全球目前最全面的人工智能(AI)技術監管立法。新法案要求企業的高風險AI模型需接受評估,並禁止將AI技術用於無目的人臉識別等高危用途。歐盟委員會周四還依照《數碼服務法》,諮詢包括Facebook(Fb)和Instagram(Ig)在內8間社媒平台,要求其解釋正採取哪些措施, 應對AI技術可能影響歐盟成員國選舉的風險。據報道,《人工智能法案》引入新的企業透明度評估規則,適用於所有進入歐盟市場的AI產品。法案要求企業若開發具有系統性風險的高級AI模型,必須對其進行最先進的安全評估,違者可被罰款,最高達公司全球收入的7%。
法案規定,各間科企需向歐盟監管機構,提供訓練AI模型的技術文案和內容摘要,這些資料是各類專業AI應用程式的基礎。一旦AI模型在訓練或運行中發生嚴重事故,企業必須將情況上報。科企也要提供安全網,安排各項降低AI技術使用風險的保護措施。法案還要求科企必須明確標註所有利用AI技術的「深度偽造」(Deepfake)內容,包括圖片、音頻和影片等。對於應用於關鍵基建設施或處理移民問題等高風險領域的AI技術,監管機構會額外進行風險評估。新法案的內容不會即刻生效。報道稱其中部分禁令,例如禁止在學校或工作場所使用識別人員情緒的AI系統、禁止無目的為AI數據庫收集人臉識別資料等,將於今年內生效,其它規定預計會在2025年至2027年陸續實施。
歐盟委員會要求Fb、Ig、X、Google、YouTube、Snapchat、Bing和TikTok合共8間社媒平台,提供詳細資料解釋平台如何降低AI技術氾濫、生成並擴散虛假訊息的風險,避免在選舉期間誤導選民。歐盟會審視收集的資料,再決定是否採取更多行動。
來源:大公文匯網