Hinton 博士在一篇《紐約時報》文章中提到了那些想用 AI 做壞事的人,他在采訪中進一步解釋說,這是最糟糕的情況。
對于 Hinton 博士的看法,專家們給予了不同的評價。一些人認為,AI 的快速發(fā)展構(gòu)成了一種巨大的威脅,需要立即采取行動。而另一些人則認為,AI 對人類有著重要的貢獻,可以用來解決一些嚴重的問題。
無論如何,人們都同意 AI 需要得到妥善的監(jiān)管,以防出現(xiàn)不良后果。AI 的發(fā)展速度非常快,因此必須在它安全與控制方面緊急投入更多資源。
AI 是一個令人興奮和激勵的領域,但同時也需要小心防范。如果我們能夠在保護人類利益的同時,實現(xiàn) AI 的潛在潛力,那么未來的前景就非常光明。
Geoffrey Hinton 反駁 AI 開發(fā)暫停呼聲
許多專家對 AI 的發(fā)展速度和方向表示擔憂,其中包括 2018 年圖靈獎獲得者 Yoshua Bengio。3 月份,AI 領域數(shù)十人共同簽名,呼吁暫停比當前版本更先進的 AI 模型開發(fā),以讓出時間實施更嚴密的安全控制。
但 Hinton 博士告訴 BBC,在短期內(nèi),他認為 AI 帶來的好處仍然多于風險,因此不必暫停 AI 模型的開發(fā)。他指出,目前 AI 已引發(fā)國際軍備競賽,因此暫停開發(fā)將面臨困難。
Hinton 博士強調(diào),他只是科學專家,不是政策專家,政府有責任確保 AI 的開發(fā)考慮到如何防止濫用。
“谷歌對 AI 的負責任態(tài)度”
Hinton 博士在 Twitter 上對他在紐約時報的采訪進行了澄清,他表示離開谷歌并不是因為對公司不滿,而是為了討論 AI 的風險。Hinton 博士強調(diào),他不想批評谷歌,這家科技巨頭已經(jīng)“非常負責任”。
谷歌首席科學家 Jeff Dean 通過一份聲明表示,谷歌仍將繼續(xù)采取負責任的態(tài)度對待 AI,不斷學習和研究新出現(xiàn)的風險,同時大膽創(chuàng)新。
盡管目前 ChatGPT 主要是一個文本聊天機器人,但它背后蘊含的潛力是巨大的。AI 技術(shù)正在以驚人的速度發(fā)展,令其創(chuàng)造者們也感到驚訝。谷歌 CEO Sundar Pichai 甚至承認,他也無法完全理解他們的 AI 聊天機器人 Bard 的全部潛力。
因此,我們正處在一段充滿未知的旅程中,但重要的是要始終保持負責任的態(tài)度。
人工智能(AI)的快速發(fā)展令人驚訝。例如,通用人工智能(AGI)已經(jīng)可以通過訓練完成各類任務。盡管目前的 ChatGPT 主要是通過查詢向用戶提供文本答案,但它同時也隱藏著無窮的可能性。
2012 年,Hinton 博士創(chuàng)建了開創(chuàng)性的圖像分析神經(jīng)網(wǎng)絡,從那以后,AI 世界已經(jīng)發(fā)生了巨大的變化。就連谷歌的 CEO Sundar Pichai 也表示,他也無法完全理解公司的 AI 聊天機器人 Bard 所能做到的事情。這說明,我們正在一個快速發(fā)展的領域前進,它可能有一天能夠獨立建造軌道。