火爆背后,ChatGPT打開了人工智能的“潘多拉魔盒” |
發(fā)布時(shí)間:2023-04-21 文章來(lái)源:本站 瀏覽次數(shù):2119 |
ChatGPT的爆火,生動(dòng)詮釋了什么是“人紅對(duì)錯(cuò)多”,展開至今現(xiàn)已招引了許多互聯(lián)網(wǎng)大佬的重視和評(píng)論。 毋庸置疑,對(duì)于一款具有分水嶺含義的產(chǎn)品而言,不少企業(yè)家都認(rèn)同大型言語(yǔ)模型的廣泛應(yīng)用。微軟創(chuàng)始人比爾蓋茨曾表明:“ChatGPT的誕生一點(diǎn)點(diǎn)不亞于個(gè)人電腦的誕生。”英偉達(dá)創(chuàng)始人黃仁勛也表明:“ChatGPT只是起點(diǎn),咱們正處于AI的iPhone時(shí)間。”谷歌前AI團(tuán)隊(duì)成員、deeplearning.ai創(chuàng)始人吳恩達(dá)曾在推特上宣布言辭,以為ChatGPT等大型言語(yǔ)模型是“人工智能領(lǐng)域?yàn)榧?dòng)人心的進(jìn)展之一! 但也有部分企業(yè)家以為,ChatGPT們的火爆背后,隱憂猶存。 人工智能需求強(qiáng)監(jiān)管嗎? 咱們?cè)谌斯ぶ悄艿恼归_方面,是否步伐太快? 3月末,生命未來(lái)研討所(Future of Life)發(fā)布了一封公開信,包含馬斯克在內(nèi)的上千名人工智能研討人員和技能高管進(jìn)行了簽名,呼吁所有人工智能實(shí)驗(yàn)室暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的練習(xí),暫停時(shí)間至少為6個(gè)月。 對(duì)此,國(guó)內(nèi)的相關(guān)企業(yè)家也對(duì)此示警:劉慈欣曾在一次采訪中表明:“ChatGPT等大型言語(yǔ)模型的出現(xiàn)將徹底改變?nèi)祟惖拈営[和寫作方法,一起也會(huì)帶來(lái)一些新的品德和道德問題!敝茗櫟t也曾就相關(guān)大型言語(yǔ)模型的安全性問題給予提醒:“在運(yùn)用公開GPT時(shí)必定要注意安全問題。大型企業(yè)在用 GPT 時(shí)不只是搜索,還會(huì)給它喂許多數(shù)據(jù),會(huì)把許多上下文的條件布景告訴它,這就意味著許多信息的隱私或許會(huì)被走漏。” 毋庸置疑,ChatGPT這樣的產(chǎn)品是人工智能工業(yè)展開的里程碑。但即使是火爆如ChatGPT,也面臨著至暗時(shí)間的來(lái)臨。 不久前,以色列網(wǎng)絡(luò)安全公司Team8的新陳述顯示,運(yùn)用ChatGPT等生成式人工智能的企業(yè)或許會(huì)因而走漏客戶信息和商業(yè)秘要。該陳述稱,新型人工智能談天機(jī)器人和協(xié)作工具的廣泛普及,或許會(huì)令一些公司面臨數(shù)據(jù)走漏和法令危險(xiǎn)。他們憂慮黑客或許會(huì)運(yùn)用談天機(jī)器人獲取靈敏的企業(yè)信息或?qū)ζ髽I(yè)發(fā)動(dòng)進(jìn)犯。此外,現(xiàn)在投喂給談天機(jī)器人的秘要信息未來(lái)也有或許會(huì)被人工智能公司運(yùn)用。 除此之外,各國(guó)政府對(duì)于ChatGPT的態(tài)度也開端變得愈加鎮(zhèn)定。 美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)也表明將要點(diǎn)重視亂用人工智能技能違反反歧視法或存在詐騙行為的公司。意大利個(gè)人數(shù)據(jù)維護(hù)局宣布,從即日起制止運(yùn)用談天機(jī)器人ChatGPT,并限制開發(fā)這一平臺(tái)的OpenAI公司處理意大運(yùn)用戶信息。英國(guó)則發(fā)布了一份文件,主張監(jiān)管機(jī)構(gòu)監(jiān)督人工智能的展開,要點(diǎn)在安全性、透明度和公平性。 AI的運(yùn)用離不開適度監(jiān)管 阿里通義千問、飛書My AI、知乎知海圖 AI、京東言犀、馬斯克的 TruthGPT 都冒出了頭,科技互聯(lián)網(wǎng)行業(yè)一時(shí)之間,好不熱鬧。當(dāng)越來(lái)越多的企業(yè)跑步進(jìn)場(chǎng),大型言語(yǔ)模型也面臨著越來(lái)越多的困局。 4月18日,CSDN發(fā)布《2022-2023 我國(guó)AIoT開發(fā)者調(diào)查陳述》。陳述中提到:“對(duì)AIoT抱持不安全感態(tài)度的開發(fā)者占比6%,也有11%的開發(fā)者憂慮AIoT會(huì)加劇失業(yè)問題!倍,伴隨AIoT技能的廣泛應(yīng)用,也會(huì)帶來(lái)一系列道德、法令和社會(huì)影響,將改變?cè)蹅兘?jīng)濟(jì)展開路徑和社會(huì)生活形態(tài)。因而,在AIoT技能普及之前,需求展開廣泛的社會(huì)、文化和道德的討論研討。 現(xiàn)在,ChatGPT作為生成式AI的代表現(xiàn)已迭代到了ChatGPT 4.0。跟著版本的更新迭代,GPT-4的文字輸入限制也得到了提高,到達(dá)了2.5萬(wàn)字,而且對(duì)于非英語(yǔ)語(yǔ)種的支撐也得到了更多的優(yōu)化。這也使得ChatGPT不僅可以愈加準(zhǔn)確地回答問題,還具備更高水平的圖像識(shí)別才能。此外,ChatGPT 4.0還可以生成歌詞和構(gòu)思文本,而且完成了風(fēng)格的多樣性。 相關(guān)材料顯示,初代GPT模型的參數(shù)是1.17億個(gè),GPT-2是15億個(gè),GPT-3模型參數(shù)量到達(dá)1750億,是GPT-2的100倍;而GPT-4的真實(shí)參數(shù)在1750億-2800億之間,要點(diǎn)在數(shù)據(jù)處理優(yōu)化上。 但需求注意的是,伴跟著ChatGPT成長(zhǎng)而越來(lái)越龐大的數(shù)據(jù)和越來(lái)越強(qiáng)的算力,也意味著更大的數(shù)據(jù)和隱私危險(xiǎn)。據(jù)報(bào)道,三星在引進(jìn)ChatGPT不到20天里,就現(xiàn)已發(fā)生了三起半導(dǎo)體秘要材料外泄事端,涉及測(cè)量材料、產(chǎn)品良品率等內(nèi)容,傳聞已被存入到ChatGPT學(xué)習(xí)材料庫(kù)中。大型言語(yǔ)模型的負(fù)面效應(yīng)現(xiàn)已開端展現(xiàn)。 在國(guó)內(nèi),相關(guān)政策的擬定現(xiàn)已走在前列。此前,《生成式人工智能服務(wù)管理辦法(征求意見稿)》面向社會(huì)征求意見,這意味著,當(dāng)下備受重視的生成式AI工業(yè)將迎來(lái)首份監(jiān)管文件。從生成式人工智能服務(wù)商的準(zhǔn)入,到算法設(shè)計(jì)、練習(xí)數(shù)據(jù)挑選、模型、內(nèi)容,以及用戶個(gè)人隱私、商業(yè)秘密等方面提出了相關(guān)要求。其中特別強(qiáng)調(diào)了生成式人工智能產(chǎn)品練習(xí)數(shù)據(jù)及生成內(nèi)容的真實(shí)性、合法性,要求提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)練習(xí)數(shù)據(jù)、優(yōu)化練習(xí)數(shù)據(jù)來(lái)歷的合法性負(fù)責(zé)。 或許,這將是人工智能工業(yè)展開的必由之路:在為人工智能展開擬定結(jié)構(gòu)的一起留足展開空間,讓人工智能得以完成大范圍普及。畢竟,技能自身沒有好壞之分,但“技能不作惡”,才是工業(yè)展開的底子底線。 |
|