Finews
台灣最好懂得財經、科技新聞網!
帶給你最有用的新聞資訊。
Finews
台灣最好懂得財經、科技新聞網!
帶給你最有用的新聞資訊。
Anthropic CEO喊話2027年揭秘AI模型黑盒子!科學家對AI如何思考仍不清楚,Anthropic希望透過「腦部掃描」等方式了解AI運作,呼籲業界共同努力,讓AI技術更安全透明。
你是否曾經好奇,那些聰明的AI模型,像是ChatGPT,是怎麼思考的?它們為什麼能回答你的問題、寫出文章、甚至畫出圖片?其實,就連開發這些AI模型的科學家,也還不太清楚它們的「思考」過程。
Anthropic是一家專門研究AI的公司。他們的CEO,Dario Amodei,最近發表了一篇文章,指出我們對AI模型的了解還非常有限。雖然AI技術進步很快,但我們就像看著一個黑盒子,只知道它會做出某些反應,卻不知道裡面發生了什麼事。
Amodei認為,如果我們不了解AI模型是如何運作的,可能會很危險。想像一下,AI技術未來會被廣泛應用在經濟、科技、甚至國家安全上,如果我們對它們一無所知,那會是什麼情況?
因此,Amodei設立了一個目標:希望在2027年前,Anthropic能夠可靠地找出大部分AI模型的問題。這聽起來很困難,但Anthropic已經開始進行相關研究。他們希望透過研究,像是幫AI模型做「腦部掃描」或「MRI」,來了解它們的思考方式,找出它們的弱點,甚至是它們有沒有說謊或想要控制人類的傾向。
Anthropic一直以來都很重視AI的安全性。他們不僅希望AI技術越來越厲害,更希望確保這些技術對人類是有益的、安全的。Amodei呼籲其他AI公司,像是OpenAI和Google DeepMind,也能投入更多資源來研究AI的「可解釋性」,也就是讓AI模型的思考過程更透明、更容易理解。
此外,Amodei也建議政府制定一些「輕度」的法規,鼓勵AI公司公開它們的安全措施。他也認為,美國應該限制晶片出口到中國,以避免全球AI競賽失控。
總之,Anthropic希望透過努力,讓AI技術的發展方向是更安全、更透明的。他們相信,只有真正了解AI模型是如何運作的,才能確保它們對人類帶來的是福祉,而不是威脅。