人工智慧的機遇與挑戰 — 英國國會報告結論與建議摘要

Vincent Chen-WS
TWIGF 臺灣網路治理論壇
35 min readMay 15, 2018

AI in the UK: ready, willing and able?

https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf,16 April 2018,Published by the Authority of the House of Lords

2018年4月16日,英國議會下屬的人工智慧特別委員會發佈長達180頁的報告《英國人工智慧發展的準備、志向與能力》(AI in the UK: ready, willing and able?),認為英國在發展人工智慧方面有能力成為世界領導者。英國政府高度重視人工智慧對經濟和社會發展的巨大潛力。

該報告之調查,涵蓋下列五個關鍵問題:

  1. AI在日常生活中如何影響人們,這可能又如何改變?
  2. AI為英國提供了哪些潛在的機會?這些如何實現?
  3. AI的可能風險和影響是什麼?這些如何避免?
  4. 公眾應該如何以負責任的態度參與AI?
  5. AI的開發和使用所帶來的倫理問題是什麼?

該180頁報告之結論與建議摘要,計有74項,敘述如後:

參與人工智慧(Engaging with artificial intelligence)

一般理解、參與和公共敘述(General understanding, engagement and public narratives)

1. 媒體提供了廣泛和重要的人工智慧的報導,這種情報偶爾可能是聳人聽聞的。政府或其他公共機構不應直接干預AI的報導方式,也不應試圖促進公眾對其正面積極的可能意涵與影響的看法。相反,政府必須了解及需要建立公眾對如何使用人工智慧的信任和信心(public trust and confidence),並解釋其可能風險(risk)。 (原文第50段)

時時接觸之AI (Everyday engagement with AI)

2. 人工智慧是許多人生活和業務的一部分。公眾成員意識到如何以及何時使用人工智慧來作出關於他們的決定,以及對他們個人會產生什麼樣的影響,這一點很重要。這種清晰度以及更強大的數位理解能力將幫助公眾體驗人工智慧的優勢,並在他們有疑慮時可以選擇不使用此類產品。 (第58段)

3. 工業界應率先建立自願機制(voluntary mechanisms),向公眾宣傳人工智慧是否被用於與消費者有關的重大或敏感決策。這種行業主導的方法應該從廣泛無效的AdChoices方案中吸取教訓(AdChoices scheme)。擬議的人工智慧行業機構 — 即將成立的AI理事會(AI Council)應考慮如何最好地開發和引入這些機制。 (第59段)

設計人工智慧(Designing artificial intelligence)

存取和控制數據(Access to, and control of, data)

4. 政府計劃通過Hall-Pesenti (Professor Dame Wendy Hall and Dr Jérôme Pesenti)Review的建議,即建立“數據信託(data trusts)”,以促進組織間在道德上共享數據。然而,根據目前的建議,這些信託中包含個人資料的個人無法聽取他們的意見,或決定這些信託的決定。因此,我們建議,由於數據信託是在數據倫理與創新中心(Centre for Data Ethics and Innovation)的指導下開發的,因此應該為數據存儲人員的表示做出規定,無論是通過定期諮詢過程、個人數據代表(personal data representatives)或是其它手段。 (第82段)

5. 獲取數據對於目前人工智慧技術的增長至關重要,並且有許多理由需要以公平和道德的方式(fair and ethical way)開放數據源(data sources),特別是在公共部門。儘管處理公共部門數據的’一刀切’方法並不合適,但許多中小企業正在努力獲得大量高品質的數據集(datasets),這使他們很難與大型的、大多數是美國的科技公司競爭,他們可以更容易地購買數據,並且也足夠大到足以產生他們自己的數據。在許多情況下,公共數據集(例如NHS所持有的數據集)更可能包含比其私營部門同等數據更多的人口數據,並且可以在他們發布前進行更多的控制。 (第83段)

6. 我們建議,只要有可能及適當並且就其潛在商業價值而言,公眾持有的數據應提供給AI研究人員和開發人員。在很多情況下,這需要政府部門和公共機構共同努力,以統一和相容(unified and compatible formats)的格式數位化記錄。在發布這些數據時,如果有必要採取適當的匿名措施(anonymisation measures),以讓數據信託將發揮重要作用。 (第84段)

7. .我們支持倫敦交通局(Transport for London)採取的方法,他們通過單一存取點發布了他們的數據,數據可以根據適當的條款和條件以及對隱私的控制獲得。數據倫理與創新中心(The Centre for Data Ethics and Innovation)應就類似方法提供指導。人工智慧政府辦公室(Government Office for AI)GovTech Catalyst應共同努力,確保以負責任的方式提供有需求的數據。 (第85段)

8. 我們承認,公開數據不能成為使數據更加廣泛可取用和可利用(available and usable)的最後一個詞,並且通常可能太遲鈍而無法促進共享(too blunt an instrument for facilitating the sharing)更敏感或有價值的數據。隨著人工智慧在社會中越來越普遍,加強個人數據控制和保護隱私的法律和技術機制將變得越來越重要。支持個人數據可移植性(data portability)的機制(如開放式銀行業務倡議: Open Banking initiative)以及數據信託等數據共享概念,將催生創建其他創新性和環境的相關工具,最終形成總體數據開放性和總體數據隱私之間(between total data openness and total data privacy)的廣泛選擇。 (第86段)

9. 我們建議數據倫理與創新中心作為緊急事項,以調查開放式銀行模式(Open Banking model)和其他數據可移植性舉措,以期建立類似的標準化框架,以便安全地共享個人數據,而且不僅僅是在財務領域。他們還應努力創造並激勵創建用於各種情況和背景下的數據共享、控制和隱私的備選工具和框架。 (第87段)

10. 公共部門數據越來越有價值公共組織意識到這些數據的商業潛力是非常重要的。我們建議信息專員辦公室(Information Commissioner’s Office)與數據倫理與創新中心密切合作建立數據信託,並幫助為公共部門的數據控制人員提供建議和指導,以便他們估計他們所持數據的價值,以便充分利用它並與私營部門合作夥伴談判公平和證據協議(fair and evidence-based agreements)。本指導意見中所包含的價值,可以基於已經提供的公開數據並隨後為公共利益產生商業價值的先例。信息專員辦公室應有權審查公共機構正在考慮的重要數據供應協議的條款(terms of significant data supply agreements)。 (第88段)

智能AI (Intelligible AI)

11. 根據我們收到的證據,我們認為,對於目前使用的某些類型的人工智慧系統,實現完全的技術透明度(full technical transparency)是困難的,甚至可能是不可能的,並且在許多情況下無論如何都不適合或有幫助。但是,在技術透明度勢在必行的情況下,會出現特定的安全關鍵情境(safety-critical scenarios),並且這些領域的監管機構必須有權要求使用更加透明的AI形式(more transparent forms of AI),即使要付出潛在的權力和準確性(potential expense of power and accuracy)的代價也是如此。 (第99段)

12. 我們相信,如果人工智慧要成為我們社會中不可或缺的可信工具,那麼理解人工智慧系統的發展就是一項基本的必要性。不管是技術透明度可解釋性(technical transparency, explainability),還是兩者,都取決於所涉及的背景和風險,但在大多數情況下,我們認為可解釋性對於公民和消費者來說將是更有用的方法。這一方法也反映在歐盟和英國的新立法中。我們認為部署任何可能對個人生活產生重大影響的人工智慧系統是不可接受的,除非它能夠對其將要做出的決定,產生完整和令人滿意的解釋。在諸如深度神經網路(deep neural networks)的情況下,對於所做出的決策尚不可能產生全面的解釋,這可能意味著延遲其用於特定用途的部署,直到找到替代解決方案為止。 (第105段)

13. 數據倫理與創新中心(Centre for Data Ethics and Innovation)與艾倫圖靈研究所(Alan Turing Institute)、電氣和電子工程師學會(Institute of Electrical and Electronics Engineers: IEEE)、英國標準學會(British Standards Institute: BSI)及其他專家機構協商,應就人工智慧系統需求的理解提供指導。人工智慧發展部門應該設法通過這樣的指導,並在AI理事會(AI Council)的主持下商定與其工作所在行業相關的標準。 (第106段)

解決偏見(Addressing prejudice)

14. 我們擔心的是,目前用於培訓人工智慧系統的許多數據集,很難代表更廣泛的人群。從這些數據中學習的人工智慧系統,很可能做出反映過去和現在社會更廣泛偏見的不公平決定。儘管許多研發人工智慧的研究人員、組織和公司都意識到這些問題,並且正在開始採取措施解決這些問題,但還需要做更多的工作來確保數據真正代表不同群體(truly representative of diverse populations)並且不會進一步延續社會不平等(societal inequalities)。 (第119段)

15. 研究人員和開發人員需要對這些問題有更深入的了解。特別是,他們需要確保數據經過預先處理,以確保數據在任何可能的情況下均衡和具有代表性(balanced and representative)他們的團隊具有多樣性並代表更廣泛的社會,並且數據的生成涉及社會的各個部分。除了數據偏差(data bias)問題之外,研究人員和開發人員需要考慮嵌入演算法本身的偏差(biases embedded in the algorithms )人類開發人員(human developers)為機器學習算法設置參數,他們做出的選擇將內在反映開發人員的信念、假設和偏見解決這些偏見的主要方式是確保開發者來自不同的性別、種族和社會經濟背景(diverse gender, ethnic and socio-economic backgrounds),並且意識到並遵守道德行為準則(ethical codes of conduct)。 (第120段)

16. 我們建議在工業戰略挑戰基金(Industrial Strategy Challenge Fund)內設立一項具體挑戰,以刺激創建權威工具和系統(authoritative tools and systems),以審計和測試培訓數據集(auditing and testing training datasets),以確保它們代表不同人群,並確保在用於培訓人工智慧系統使它們不太可能導致有偏見的決定。這個挑戰應該立即建立起來,並在2019年春季鼓勵申請。然後鼓勵行業部署已開發的工具,並及時對其進行監管。 (第121段)

數據壟斷(Data monopolies)

17. 儘管我們歡迎大型海外科技公司在英國經濟中所做的投資及其帶來的好處,但由於日益合併集中的權力和影響力所帶來的少數風險,這些風險已逐漸損害了英國蓬勃發展的本土AI新創產業的持續和發展。數據的壟斷表明了英國需要強大的道德、數據保護和競爭框架,並且需要監管機構的持續警惕。我們敦促政府和競爭與市場管理局(Government, and the Competition and Markets Authority)主動審查在英國運營的大型科技公司對數據的使用和潛在壟斷(potential monopolisation of data)。 (第129段)

開發人工智慧(Developing artificial intelligence)

投資人工智慧開發(Investment in AI development)

18. 英國人工智慧開發部門(AI development sector)在很大程度上得到蓬勃發展,政府沒有嘗試想確定其形狀或方向。這導致了一個靈活而富有創新精神的基層創業文化,這個文化很好地利用了人工智慧所能提供的不可預測的機會。AI企業的投資環境必須能夠應對這種不確定性,並願意冒險抓住AI提供的機會。 (第135段)

19. 我們歡迎2017年秋季預算中宣布的鼓勵創新增長的企業投資和風險資本信託計劃(Autumn Budget 2017 to the Enterprise Investment and Venture Capital Trust schemes)的變化,我們相信它們應該有助於提高對英國人工智慧公司的投資。英國初創企業面臨的挑戰是缺乏可用於擴大業務的投資。 (第150段)

20. 為確保UK的AI新創企業有機會擴大規模,且無需尋求離岸投資(off-shore investment),我們建議在2017年秋季預算中英國商業銀行投資25億英鎊的投資基金中保留一部分,作為具有實質性人工智慧組成部分的中小企業(SMEs)的AI成長基金,並專門針對使這些公司擴大規模。此外,政府應該就需要改善英國境內中小企業融資管道的問題進行磋商,這些中小企業希望擴大業務規模。 (第151段)

21. 為確保開發人工智慧的公司能夠繼續在英國茁壯成長,我們建議政府審查在英國從事人工智慧產品經營的企業的現有激勵措施,並確保其適用於公司,並將其適當地提升給公司並儘可能協助中小企業。 (第152段)

將學術研究轉化為商業潛力(Turning academic research into commercial potential)

22. 英國在人工智慧領域的學術研究有著良好的記錄,但將這種研究轉化為商業上可行的產品,存在有長期的問題。 (第159段)

23. 為了解決這個問題,我們歡迎並強烈支持Hall-Pesenti Review的建議,該建議規定“大學應該使用清晰、可存取的可能的共同政策和最佳實務來授權智慧財產權(IP)許可,並組建衍生公司(universities should use clear, accessible and where possible common policies and practices for licensing IP and forming spin-out companies)”。我們建議作為國家人工智慧研究國家中心(National Centre for AI Research)的艾倫圖靈研究所(Alan Turing Institute),應該將這一概念發展為針對英國大學的具體政策建議,並尋找其他領域和其他國家的例子,以幫助開始解決這一長期存在的問題。 (第160段)

改進對熟練的AI開發人員的進用(Improving access to skilled AI developers)

24. .我們歡迎為人工智慧和機器學習方面的博士學位(PhD places)提供更多的公共資金,並宣布將開發一個行業資助的碩士學位課程(industry-funded master’s degree programme)。我們確實認為還需要做更多的工作來確保英國擁有所需的技能,以保持其作為世界上AI研究的最佳國家之一的地位。 (第168段)

25. 我們建議進一步擴大人工智慧和機器學習博士學位的資助,公共和私營部門通過博士匹配計劃(PhD matching scheme)平攤財務負擔。我們認為,應該檢查博士培訓合作夥伴計劃(Doctoral Training Partnership scheme)和其他私營部門、大學和研究委員會之間分擔費用的計劃,並增加行業資助的博士的數量。 (第169段)

26. 我們還建議艾倫圖靈研究所與AI理事會共同制定短期(3–6個月)的研究生轉換課程(post-graduate conversion courses),以反映AI開發部門的需求。這樣的課程應該適合其他學科的人員轉向AI開發和設計或在他們的學科中應用AI。這些設計應該使任何人都可以在他們工作的任何階段進行再培訓。 (第170段)

27. 我們建議政府確保公眾資助的AI和機器學習博士學位,能夠提供給多樣化的人群,以使其具有更廣泛社會的代表性。為了達到這個目標,我們要求艾倫圖靈AI研究所和政府辦公室(Alan Turing Institute and Government Office for AI),制定了吸引更多女性和少數民族學生參加政府支持的博士學位課程的機制,這些學科需要類似的技能,但有更多具有代表性的學生群體。 (第174段)

28. 我們承認至少一些技術公司相當懷疑,儘管該部門的其他人在學徒期間取得了成功,但他們認為學徒稅(apprenticeship levy)對他們沒有多大用處。政府應該就如何最好地部署學徒稅用於科技行業,特別是為中小企業和初創企業,提出明確的指導。 (第175段)

* 2017年4月6日開始,英國「商業、創新暨技能部」(Department for Business, Innovation and Skills, 簡稱BIS)將針對每年給付總薪資超過三百萬英鎊且在英國執業的公司徵收「學徒捐」(apprenticeship levy)。然而,英國政府會將徵收來的「學徒捐」再提撥給雇主,由其決定其運用方式。此計畫對「學徒」的定義必須包含以下四點:第一,學徒必須被聘僱一個具有實際工作內容的工作。學徒可以是既有員工,也可以是新聘的。第二,學徒必須符合「學徒制標準」(註1)或「學徒制架構」(註2)。第三,學徒訓練必須至少12個月。第四,學徒必須花費至少20%的時間在工作外的訓練上。(https://epaper.edu.tw/windows.aspx?windows_sn=18720)

29. 政府宣布將每年將1級(Tier 1)(卓越人才)簽證的年度數量從1000人增加到2000人,這是值得歡迎的。雖然需要一流的博士研究人員和設計師,但人工智慧開發部門也依賴於那些能夠實施人工智慧研究的人員,他們的職業可能不符合卓越的人才需求。 (第181段)

30. 我們擔心,根據第1級(卓越人才)簽證計劃提供的工作人員數量不足,而且這些要求對於英國公司和初創企業的需求來說太高。我們建議增加AI研究人員和開發人員的簽證數量,例如,將機器學習和相關技能添加到第2層(Tier 2)短缺職業列表。 (第182段)

保持創新(Maintaining innovation)

31. 我們認為,在我們離開歐盟之後,政府必須承諾確保(commit to underwriting)並在必要時替代歐洲研究和創新計劃的資金(European research and innovation programmes)。 (第188段)

32. 通過研究理事會和其他機制,國家在支持人工智慧研究方面發揮重要作用,並且應該注意確保英國在人工智慧研發方面的優勢得以保持。目前聚焦於深度學習,雖然這可能會促進該領域的下一個重大進展,但亦有應分散人工智慧研究到其他方面的注意力的風險。政府和大學在支持人工智慧研究的多個子領域(diverse sub-fields of AI research)發揮著重要作用,此將會超越了現在資金充足的深度學習領域,以確保英國保持人工智慧發展的前沿地位。 (第191段)

使用人工智慧(Working with artificial intelligence)

生產力(Productivity)

33. 我們支持政府相信人工智慧為提高生產力提供了機會。但是,為了滿足英國整體的這種潛力,AI理事會(AI Council)必需發揮作用,使AI能夠使所有公司(無論大小)受益,並確保他們能夠利用現有技術,且讓他們有及時採取未來技術的優勢。理事會必須確定使用人工智慧提高生產力的加速器和障礙(accelerators and obstacles),並建議政府採取適當的行動。 (第199段)

34. 我們歡迎政府打算全面升級國家的數位基礎設施。然而,我們擔心它沒有足夠的動力來確保國家的數位基礎及時到位,以利用潛在的人工智慧優勢。我們敦促政府考慮進一步大量的公共投資,以確保英國的任何地方都被納入5G和超高速寬頻(ultrafast broadband)的推出範圍,因為這應該被視為是必要的。 (第203段)

政府採用和採購人工智慧(Government adoption, and procurement, of artificial intelligence)

35. 政府在發展和部署人工智慧方面的領導作用必須伴隨著行動。我們歡迎GovTech Catalyst的宣布,並希望它能為英國蓬勃發展的AI開發部門打開白廳(Whitehall係指政府部門)的大門。我們也贊成Hall-Pesenti Review的建議,旨在鼓勵在公共部門更多地使用人工智慧。 (第215段)

36. 為了確保公共部門更多地使用人工智慧,並為了提高政府在英國的客戶地位,我們建議對公共採購法規進行審查和修訂,以確保提供人工智慧解決方案的英國公司能夠招標並給予最大的參與機會Crown Commercial Service與政府數位辦公室(Government Digital Office)一起應審查政府服務設計手冊(Government Service Design Manual)和技術操作規範(Technology Code of Practice),以確保英國公司設計的AI驅動系統(AI-powered systems)的採購,能得到鼓勵和激勵,並且符合道德標準方式。 (第216段)

37. 我們還鼓勵政府大膽採購人工智慧系統,並通過有限的投機投資和對企業的支持(limited speculative investment and support to businesses),鼓勵通過有限的投資方式解決公共政策挑戰,並為企業提供支持,幫助他們將想法轉化為原型,以確定他們的解決方案是否可行。部署給納稅人的AI系統的價值,將以支持其他工具開發而損失的任何金錢做為彌補。 (第217段)

38. 最後,關於公共採購,我們建議設立一個線上公告欄,用於宣傳政府AI辦公室和政府科技促進署(Government Office for AI and the GovTech Catalyst)從政府和更廣泛的公共部門發現的潛在挑戰,以用於創新的技術和基於AI的解決方案。 (第218段)

對勞動力市場的影響(Impact on the labour market)

39. 勞動力市場正在發生變化,隨著整個經濟體採用人工智慧,預計會進一步嚴重破壞該市場。當我們進入這個未知的領域時,對人工智慧不斷增長的影響的預測 — 失業、就業增加和創造新就業機會(jobs lost, jobs enhanced and new jobs created) — 都不可避免地是臆測的。迫切需要持續分析或評估英國人工智慧的發展,並制定政策回應。 (第231段)

全國再培訓計劃(National Retraining Scheme)

40. 英國必須隨時準備應對人工智慧在我們工作中遇到的困難。我們支持政府在發展成人再培訓計劃(adult retraining schemes)方面的興趣,因為我們認為人工智慧將在未來幾十年中破壞各種各樣的工作崗位,今天存在的藍領和白領工作都將面臨風險。因此,鼓勵和支持工人(workers)進入我們相信將通過,包括人工智慧在內的新技術創造的新職位和職業將是非常重要的。國家再培訓計劃在這裡可以發揮重要作用,並且必須確保再培訓計劃的接受者是更廣泛人群的代表。工業界應配合政府撥款,協助資助國家再培訓計劃。這種夥伴關係將有助於改善可以存取該計劃的人數,並更好地識別所需的技能。這種做法必須反映從執行學徒稅(Apprenticeship Levy)中汲取的教訓。 (第236段)

以人工智慧生活(Living with artificial intelligence)

教育和人工智慧(Education and artificial intelligence)

41. 我們很清楚,有必要提高整個社會的數位理解和數據素養,因為這是構建人工智慧知識的基礎。這項工作必須由公共部門組織、民間社會組織(如皇家學會)和私營部門共同開展。 (第249段)

42. 有證據表明,計算機課程的近期改革是信息和傳播技術課程的重大改進,儘管現在說出最終結果還為時過早。政府必須小心,不要以犧牲藝術和人文學科為代價來擴大計算機教育,這將能訓練創造性、語境和分析技能(creative, contextual and analytical skills),這些技能在人工智慧所塑造的世界中可能變得更重要。 (第250段)

43. 然而,我們關心的是,如最初提出的那樣,要學習計算課程所沒有的有關更廣泛的社會和倫理影響的內容。我們建議在整個課程中,計算機科學和人工智慧的更廣泛的社會和倫理方面,需要恢復到最初提出的形式。 (第251段)

44. 雖然我們歡迎2017年秋季預算中宣布的,旨在增加中學計算機科學教師人數的措施,但如果英國要應付人工智慧提出的挑戰,政府需要更大的緊迫感和承諾。 (第257段)

45. 政府必須確保國家計算中心(National Centre for Computing)迅速建立並擁有充足的資源,並且支持對具有相關技能和數學等主題的教師進行再培訓。特別是,Ofsted(教育標準局-Office for Standards in Education)應該確保學校為教師提供額外的時間,使他們能夠在課程的新技術方面進行培訓。我們還敦促政府在全國範圍內最大限度地利用現有的終身學習設施,對教師和其他人工智慧專家進行培訓和定期再培訓。 (第258段)

46. 作為Hall-Pesenti Review的補充,政府應該探索教育部門在各個層級(at every level)發揮作用,將AI的好處轉化為更具生產力和公平的經濟(more productive and equitable economy)。 (第259段)

對社會和政治凝聚力的影響(Impact on social and political cohesion)

47. 人工智慧可能會產生許多社會和政治影響,除了人們作為工人和消費者的生活之外。人工智慧使處理和操縱各種形式的數位數據變得容易得多,並且鑑於數位數據滲透到現代生活的許多方面,這既帶來機遇,也帶來前所未有的挑戰。正如我們在前面的報告中所討論的那樣,公眾對AI的了解和參與,以及與技術本身一起發展的需求正在迅速增長。特別是對數據的操縱,將成為未來幾個月和幾年公眾理解和討論的關鍵領域。 (第265段)

48. 我們建議政府和Ofcom(Government and Ofcom)委託對傳統媒體和社交媒體可能產生的影響進行研究,並調查可能抵制使用AI來誤導或歪曲公眾輿論的措施。 (第266段)

不平等(Inequality)

49. 由於通過人工智慧和自動化取得進展,會出現更大的社會和區域不平等現象的風險是非常現實的,雖然政府提出的有關區域發展(regional development)的擬議政策將受到歡迎,但我們認為在這方面領域需要做的更多。我們還不相信基本收入計劃(basic income schemes)將被證明是有效的答案,但我們有興趣地關注蘇格蘭的實驗(Scotland’s experiments)。 (第275段)

50. 每個人都必須能夠獲得AI提供的機會。政府必須概述其計劃,以解決任何潛在的社會或地區問題因人工智慧所造成的不平等,這必須作為實施工業戰略的一部分予以明確處理。社會流動委員會的年度國家報告(Social Mobility Commission’s annual State of the Nation report)應該包括人工智慧和自動化對不平等的潛在影響。 (第276段)

醫療保健和人工智慧(Healthcare and artificial intelligence)

51. 保持公眾對安全和可靠地使用其數據的信任,對於人工智慧的成功廣泛部署至關重要,沒有比個人健康數據(personal health data)更好的範例。倫敦皇家自由NHS基金會信託基金與DeepMind(Royal Free London NHS Foundation Trust and DeepMind)之間的爭議一定不能重演。如果無法避免的話,在NHS部署人工智慧的好處將不會被採納或實現好處,創新可能會被扼殺。 (第300段)

52. NHS所保存的數據可被視為國家獨特的價值來源。它不應該被輕易地分享,但是如果是這樣,它應該以允許收回價值的方式(allows for that value to be recouped)來完成。我們擔心NHS Trusts採取的目前零碎的方法,即AI開發者和醫院之間的本地交易受到影響,這可能會導致數據不經意的低估。它也有可能使NHS信託公司面臨數據分享安排不充分的風險。 (第301段)

53. 我們建議應該有一個共享NHS數據的框架(framework for the sharing of NHS data),由NHS England(特別是NHS Digital)和國家健康與護理數據衛士(National Data Guardian for Health and Care),於2018年底編寫並出版。這應該在ICO(Information Commissioner’s Office)和已經有這種安排經驗的臨床醫生和NHS Trusts(如Royal Free London和Moorfields眼科醫院NHS基金會信託基金),以及Caldicott Guardians的支持下編寫。該框架應明確規定以適當的匿名形式共享患者數據時需要考慮的事項,這樣做時需要採取的預防措施,以及該數據的價值和使用方式。它還必須考慮到確保SME存取NHS數據的必要性,並確保讓患者了解使用他們的數據並給出選擇退出的選項。 (第302段)

54. UK的許多組織沒有利用現有技術,更不用說準備利用人造智能等新技術。NHS也許是這個最緊迫的例子。AI系統在英國醫療保健領域的發展和最終部署,應該被視為與NHS和AI開發人員都能從中受益的合作。為了釋放所保存的數據的價值,我們敦促NHS在2022年前以一致的格式將其當前的做法和記錄數位化,以確保其所持有的數據不會無法存取,並且未能實現對社會可能帶來的好處。 (第303段)

減輕人工智慧的風險(Mitigating the risks of artificial intelligence)

法律責任(Legal liability)

55. 我們認為,可以預見人工智慧系統可能發生故障、表現不佳或以其他方式作出造成損害的錯誤決定。特別是,當演算法自行學習和演化時,可能會發生這種情況我們和我們的證人都不清楚是否需要在這種情況下提供法律責任和補救的新機制,或者現有機制是否足夠。 (第317段)

56. 清晰是必需的(Clarity is required)。我們建議法律委員會(Law Commission)考慮現行法例是否足以處理AI的法律責任問題,並在適當情況下建議政府採取適當的補救措施,以確保法例在這方面的明確性。這項工作至少應該為問責制和可理解性(principles for accountability and intelligibility)建立明確的原則。這項工作應該盡快完成。 (第318段)

刑事濫用人工智慧和數據(Criminal misuse of artificial intelligence and data)

57. 善意的人工智慧研究被其他人用來造成傷害的可能性很大。人工智慧研究人員和開發人員必須對他們工作的潛在倫理含義充滿活力。數據倫理與創新中心和艾倫圖靈研究所(Centre for Data Ethics and Innovation and the Alan Turing Institute),有能力為研究人員提供他們工作潛在影響的建議,以及他們可以採取哪些步驟來確保這些工作不被濫用。但是,我們認為還需要採取其他措施。 (第328段)

58. 我們建議大學和研究理事會(universities and research councils)向人工智慧研究人員提供獎助和資金,而且必須堅持認為,申請這些資金必須表明,在提供任何資金之前,必須提出對AI的影響研究以及如何可能濫用AI的意識,並且包括將採取防止這種濫用的步驟的細節。 (第329段)

59. 我們建議內閣辦公室的最終網路安全科學和技術戰略(Cabinet Office’s final Cyber Security Science & Technology Strategy),應考慮到更廣泛地使用人工智慧在網路安全應用和其它應用中的風險和機會。特別是,應進一步研究保護公共和私人數據集,免受數據破壞企圖的方法,並將這項研究的結果轉化為相關指導。 (第333段)

自主武器(Autonomous weapons)

60. 如果沒有商定的定義(agreed definitions),我們很容易發現自己正在通過語義朦朧陷入危險的境地。政府對軍隊使用的自治系統的定義是“能夠理解更高層次的意圖和方向(is capable of understanding higher-level intent and direction)”,這顯然與大多數其他政府採用的定義不一致。這一立場限制了英國能夠有效參與關於自主武器的國際辯論的程度,以及它在這個領域的全球舞台上扮演道德和倫理領袖角色的能力。從根本上說,必須盡快試圖達成國際上一致同意的定義。 (第345段)

61. 我們建議英國對自主武器的定義應重新調整為與世界其他國家相同或相似。為了產生這個定義,政府應召集一個軍事和人工智慧專家小組來商定一個修訂後的文字形式。這應該在本報告發表後八個月內完成。 (第346段)

型塑人工智慧(Shaping artificial intelligence)

居家領先(Leading at home)

62. 人工智慧的潛力是政府正在擁抱的一個機會。政府最近對英國人工智慧的熱情和響應值得歡迎。根據我們作為委員會收到的大量證據,我們提出了若干建議來加強最近的政策公告。我們鼓勵政府繼續積極制定政策,以利用人工智慧的潛力並降低風險。但是,我們確實敦促政府確保其方法重點突出,並提供戰略領導 — 必須有一個明確的成功路線圖(clear roadmap for success)。政策必須相互配合,並與現有政策相一致。工業界和公眾必須更好地了解公告,並從一開始就提供足夠的細節。 (第366段)

63. 這項技術發展的步伐是不可預測的,政策舉措也很多。為避免政策過於活躍,並為防止新機構彼此重疊和衝突,我們建議人工智慧政府辦公室(Government Office for AI)制定人工智慧國家政策框架,以與工業戰略保持一致,並由AI委員會(AI Council)進行監督。這種框架應包括與本報告建議有關的政策,並在適當的情況下配合對這些政策的長期承諾,以實現效益。政府內部還必須清楚地表明,該框架的方向和主責單位(ownership of this framework)以及屬於該框架的與人工智慧相關的政策是由哪一個內閣負責的(Government who is responsible around the Cabinet table)。 (第367段)

64. 新機構的作用和職責必須明確,如果它們要取得成功的話。當涉及人工智慧的開發和使用時,英國的公眾和技術部門必須知道由誰來尋求權威建議(authoritative advice)。為了確保公眾的信心,如果有人對如何使用人工智慧進行投訴,超出與數據使用有關的事宜(屬於信息專員-Information Commissioner’s的職權範圍)時,還必須明確向誰求助(who to turn to)。 (第368段)

65. 我們建議人工智慧政府辦公室(Government Office for AI)應擔任數據倫理與創新中心(Centre for Data Ethics and Innovation)、GovTech Catalyst team和人工智慧研究國家研究中心(Alan Turing Institute)以及它正在建立支持AI發展的AI Council之間的協調員。它還必須注意那些在這方面過去已經做得很好的機構的工作,例如信息專員辦公室(Information Commissioner’s Office)和競爭與市場管理局(Competition and Markets Authority)。所有新的特定AI機構的工作計劃,應該每季度相互協商一致,並且應該考慮到說明政府在這方面正在開展的工作,以及議會、監管機構和下放議會和政府的工作。英國擁有蓬勃發展的人工智慧生態系統,人工智慧政府辦公室應該通過廣泛的公眾諮詢來設法通報其工作計劃,因為它發展了有關人工智慧的政府政策。該計劃應公開可供審查。 (第369段)

66. 我們歡迎艾倫圖靈研究所(Alan Turing Institute)作為國家人工智慧研究中心的新焦點。我們希望它能夠履行這一職責,並相信它有可能這樣做。因此,新的重點不應僅僅是一個重塑品牌的問題(matter of rebranding)。加拿大和德國的成功機構,如Vector Institute和德國人工智慧研究中心(German Research Center for Artificial Intelligence),就如何運營國家研究中心提供了寶貴的經驗教訓。 (第370段)

67. 政府必須確保艾倫圖靈研究所的資金和結構,足以滿足其作為英國國家人工智慧研究中心新擴大的職權範圍。特別是,研究所目前以借調為基礎的人員編制(secondment-based staffing)模式應予以評估,以確保其適宜性,並採取步驟適當地配合研究所,以滿足現在對它的要求。 (第371段)

法規和監管機構(Regulation and regulators)

68. 在這個階段,一籃子特定AI的規定(Blanket AI-specific regulation)是不合適的我們認為現有部門特定監管機構,最適合做為考慮可能需要的任何後續監管對其部門的影響。我們歡迎數據保護法案(Data Protection Bill)和GDPR似乎解決了我們的證人在處理個人數據方面的許多擔憂,這是AI發展的關鍵。人工智慧政府辦公室以及數據倫理與創新中心,需要確定現有法規可能不足的差距(如果有的話)。人工智慧政府辦公室還必須確保現有監管機構的專業知識,可被用於通知未來可能(informing any potential regulation)需要的任何可能的法規,並且我們歡迎引入監管機構的先驅基金(Regulator’s Pioneer Fund)。 (第386段)

69. 這可能給現有監管機構(existing regulators)造成額外的負擔,可能會很大。我們對國家審計局的建議(National Audit Office’s advice)是要確保現有的監管機構,特別是信息專員辦公室(Information Commissioner’s Office)得到充分和可持續的資源。 (第387段)

評估政策結果(Assessing policy outcomes)

70. .關於人工智慧的政策必須要有一個很適合支持迅速變化的環境。為了讓英國能夠認識到人工智慧的好處,政府的政策必須以協調一致的方式為支撐,並在適當的情況下對來自學術界和工業界的反饋進行密切監測。 政策應該以適當的國際比較指標(appropriate international comparators)為基準和跟踪。人工智慧政府辦公室在這方面發揮著明確的作用,我們建議根據這一建議取得進展報告,政府在工業戰略和其他相關政策中針對具體政策的政策,每年向議會報告。 (第391段)

英國在AI世界中的願景(A vision for Britain in an AI world)

71. 國內外對人工智慧的社會變革潛力,需要所有人的積極參與。政府有史以來有機會形成人工智慧的發展和部署,以造福每一個人。英國在法律、研究、金融服務和公民機構方面的優勢,意味著它有助於塑造人工智慧的道德發展,並在全球舞台上這樣做。為了能夠在國際上表現出這樣的影響力,政府必須確保它為英國盡其所能的為AI的潛力能夠達到最大化。 (第402段)

72. .我們建議政府在2019年底之前與所有有關國家和政府、工業界(大型和小型)、學術界和民間社會密切合作,盡可能地在倫敦召開全球峰會(global summit in London)。全球峰會的目的應該是為道德發展和人工智慧系統的部署制定一個共同框架。這樣的框架應該與現有的國際治理結構保持一致。 (第403段)

一個AI行為準則(An AI Code)

73. 許多組織正在制定他們自己的使用人工智慧的道德行為準則(codes of conduct)。這項工作值得讚揚,但顯然政府可以在缺乏更廣泛的認識和協調間提供幫助。一致的和廣泛認可的道德指導,AI部署的公司和組織可以參加,這將是一個值得歡迎的發展。 (第419段)

74. 我們建議由數據倫理與創新中心(Centre for Data Ethics and Innovation)制定和推廣適用於,正在開發或採用人工智慧的公共和私營部門的組織實施的跨行業道德行為準則(cross-sector ethical code of conduct)或“AI行為準則(AI code)”,並得到AI理事會和艾倫圖靈研究所的意見,此項建議有一定程度的緊迫性。在某些情況下,需要使用類似的語言和品牌,創建特定行業的特定的適用情況(sector-specific variations)。這樣的守則應包括需要考慮在正在開發或使用AI的公司或組織中所建立的道德顧問委員會(ethical advisory boards)。如及時完成此一行為準則,則此準則到需要確定必須監管時,亦可以提供法定監管的基礎。 (第420段)

以上合計74個建議,詳細請見全文。

--

--

Vincent Chen-WS
TWIGF 臺灣網路治理論壇

喜歡閱讀科普、心理、網路治理、哲學宗教等書籍