[新聞] 國科會提出《人工智慧基本法》草案 建構AI發展規範與治理框架

看板Tech_Job (科技人)作者 (H)時間3月前 (2024/07/18 09:53), 編輯推噓0(001)
留言1則, 1人參與, 3月前最新討論串1/1
國科會提出《人工智慧基本法》草案 建構AI發展規範與治理框架 原文網址:https://bit.ly/3Y4mHI9 原文: 近年來,人工智慧(AI)技術的快速發展為產業和社會帶來廣泛的經濟和社會效益,同時也 可能對個人或社會帶來新的風險和影響,歐美也陸續推出人工智慧相關法案。為因應這一 趨勢,國科會提出《人工智慧基本法》草案,旨在確立推動AI技術與應用發展的方向和作 法,並建構良善的運作環境。 這項法案的制定目的包括促進以人為本的AI研發與應用,維護國民生命、身體、健康、安 全及權利,提升國民生活福祉,維護國家文化價值及競爭力,並增進社會國家的永續發展 。草案中明確定義了人工智慧,並提出了七項基本原則,包括永續發展與福祉、人類自主 、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視,以及問責。 政府在草案中承諾積極推動AI研發、應用及基礎建設,並妥善規劃資源整體配置。這包括 提供相關產業補助、委託、出資、獎勵、輔導,或租稅、金融等財政優惠措施。同時,政 府也將致力於完善AI研發與應用的法規調適,以不妨礙新技術與服務提供為原則。 為促進AI技術創新與永續發展,各目的事業主管機關將建立或完備AI研發與應用服務的創 新實驗環境。政府還將以公私協力方式推動AI創新運用,並致力於推動AI相關的國際合作 ,促進人才、技術及設施的國際交流與利用。 在人才培育方面,政府將持續推動各級學校、產業、社會及公務機關(構)的AI教育,以提 升國民的AI素養。同時,政府也將致力於避免AI應用造成國民生命、身體、自由或財產安 全、社會秩序、生態環境的損害,或出現利益衝突、偏差、歧視等問題。 草案中提出了AI風險分級框架的概念,由數位發展部參考國際標準或規範推動,各目的事 業主管機關可據此訂定其主管業務的風險分級規範。政府還將透過標準、規範或指引,提 升AI決策的可驗證性及人為可控性。 為建立AI應用的負責機制,政府將依風險分級推動相關標準、驗證、檢測、標記、揭露、 溯源或問責等機制,提升AI應用可信任度,並建立明確的責任歸屬與歸責條件。同時,草 案也強調了保障勞工權益、個人資料保護,以及提升資料利用性與國家文化價值的重要性 。 對於政府機關使用AI執行業務或提供服務,草案要求進行風險評估並規劃因應措施,以符 合基本原則。各機關還需根據業務性質訂定使用規範或內控管理機制。此外,政府將建立 資料開放、共享與再利用機制,提升AI使用資料的可利用性,並致力於提升資料品質與數 量。 最後,草案要求政府在法案施行後檢討及調整所主管的職掌、業務及法規,以落實法案目 的。在相關法規制定或修正前,由中央目的事業主管機關協同中央科技主管機關依本法規 定解釋、適用。 《人工智慧基本法》草案公告刊登於「公共政策網路參與平臺」,對於公告內容有任何意 見或修正建議者,可於公告後60日內陳述意見或洽詢「國家科學及技術委員會前瞻及應用 科技處」。 《人工智慧基本法》草案展現了政府積極推動AI發展的決心,同時也展現了對人權保障、 風險管理的重視。透過建立全面的法律框架,希望能夠在促進AI創新發展的同時,也能確 保AI技術的應用符合社會公義、尊重人權,並能有效管控潛在風險,進而實現AI技術與社 會發展的良性互動。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.145.192.245 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1721267636.A.038.html

07/18 11:50, 3月前 , 1F
電力備載剩5% 實驗室夠用嗎?
07/18 11:50, 1F
文章代碼(AID): #1cc7Mq0u (Tech_Job)
文章代碼(AID): #1cc7Mq0u (Tech_Job)