(資料圖片僅供參考)
在GPT大模型不斷升級的同時,關于人工智能倫理方面的爭議也接踵而至。3月29日,馬斯克等近千名科技人員在一封公開信中呼吁,在未來六個月暫停對巨型GPT模型的訓練,以免該模型對社會和人類造成潛在風險。若禁令不能迅速實施,政府應該介入并制定暫停令。
公開信稱,人工智能開發(fā)者必須與政策制定者合作,大幅加速開發(fā)強大的人工智能治理系統(tǒng)。
不過,OpenAI的首席執(zhí)行官阿爾特曼沒有在這封信上簽名。在公開信發(fā)布后的第二天,阿爾特曼如此表態(tài),要實現(xiàn)通用人工智能繁榮的未來需要三個條件。首先,技術上擁有對齊超級智能的能力,其次,大多數(shù)領先的通用人工智能模型之間可以實現(xiàn)充分協(xié)調,第三,存在有效的全球監(jiān)管框架,包括民主治理在內。
值得注意的是,英國近期發(fā)布了針對人工智能的監(jiān)管措施。白皮書概述了針對ChatGPT等人工智能治理的五項原則,這五項原則包括:安全性和穩(wěn)健性、透明度和可解釋性、公平性、問責制和治理,以及爭議與補救。
英國政府表示,在接下來的12個月內,監(jiān)管機構將向各個組織發(fā)布使用指南和風險評估模板等其他工具及資源,來制定如何在行業(yè)內實施相關原則。在議會時間允許的情況下,也將出臺立法,以確保監(jiān)管機構始終如一地秉持這些原則。
對于人工智能領域的風險問題,也有人持不同的看法。3月30日,360集團創(chuàng)始人周鴻祎發(fā)文表示,昨天,以馬斯克為首的科學家給美國政府寫請愿信,要求暫停GPT-5的研發(fā),擔心它“對社會和人類構成潛在風險”。周鴻祎認為這不影響中國發(fā)展自己的大語言模型?,F(xiàn)在擔心風險為時尚早。
他表示,不管你愿不愿意,GPT都將引領一場新的工業(yè)革命,意義超越互聯(lián)網(wǎng)和iPhone的發(fā)明。它將帶來生產力的大幅提升,進而提升國家競爭力。中國一定要迎頭趕上。自己是做安全的,但堅定地認為,不發(fā)展才是最大的不安全。
關于我們| 聯(lián)系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網(wǎng) www.ulq4xuwux.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2020 By All Rights Reserved 皖ICP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com