Placeholder Logo
首頁電子報YOUTUBEPODCAST
Hero Image

生命家庭電子報

生命倫理研究中心以各種媒體平台、教學、舉辦活動、參與政府公聽會、發行生命家庭電子報等方式,推動倫理教育。幫助更多人理解生命的價值,尊重每一個人的尊嚴,全面具體地實踐維護生命、救助胎兒的理念。

我要訂閱/取消訂閱

人工智慧:別讓我們的大腦辭職!

作者:Blanche Streb  發表於:2025年6月30日

一項美國研究顯示,使用ChatGPT會使半個大腦沉睡。隨筆作家Blanche Streb警告說:若人類想要保持人性與自由,人工智慧的使用者必須以智慧來面對它。

人工智慧(AI)以及諸如ChatGPT這類眾所周知的「對話代理」,已經全面滲透我們的生活。這些新工具所提供的前所未有的服務,似乎幾乎是無窮無盡的。它們節省大量時間,能以閃電般的速度完成多項任務。機會?危險?令人著迷?還是令人恐懼?有一點是確定的:它們的使用為人類帶來全新且巨大的挑戰。年輕人越來越常用它來寫論文、作各種研究,有時甚至用於一些簡單、基本的事情,比如寫一封信,或者詢問「該怎麼回覆這則簡訊」……。伴隨著這些虛擬拐杖成長,真的無關緊要嗎?這會對我們的大腦產生什麼影響?特別是對那些仍在發育中的大腦,又會有什麼後果?

大腦活動減少55%

美國研究人員深入探討了這一極為根本性的問題,試圖量化人工智慧對神經系統的影響。根據《費加羅報》6月24日的報導,麻省理工學院(MIT)進行了一項研究,將三組年輕成年人進行比較。第一組:完全獨立作業,沒有任何輔助;第二組:可以使用網際網路及傳統搜尋引擎;第三組:使用ChatGPT-4.0。研究人員實時觀測了這些「受試者」大腦中32個區域的活動情況。雖然這些結果仍需進一步的專家驗證,但其結論令人震驚:使用人工智慧會導致大腦創造力與活動顯著下降。四個月後,使用 ChatGPT 的那一組大腦活動平均下降55%,尤其是在與注意力、記憶力以及解決問題相關的區域。相比之下:僅使用搜尋引擎的組別,其視覺皮層仍保持活躍,因為他們需要分析和篩選所收到的資訊;而完全獨立作業的一組,則持續啟動與記憶、創造力及自我控制有關的廣泛腦區網絡。

機器不會思考

看起來,這正好印證了觀察與常識早已提醒我們的事:使用人工智慧所帶來的效益,往往也伴隨著損失與衝擊。83%的ChatGPT 使用者無法記住自己文章中的哪怕一小段內容。使用AI節省的時間,反而可能對使用者不利,因為從知識獲取和推理訓練的角度來看,這其實是一種浪費時間。研究作者稱之為「認知卸載」(délestage cognitif)。因為當使用者將某些思維任務交給工具時,他們並未真正掌握內容。既然知道在哪裡可以(重新)找到資訊,那又何必去記住呢?別忘了,大腦是懶惰的!它寧可無止境地滑手機,或者打瞌睡看連續劇……正因如此,人類的天賦才顯得更加令人驚奇和美妙!當它與我們的意志、深層渴望、天賦、毅力以及創造性的勇氣相連結時,人類自古以來就能完成驚人的壯舉……事實上,正是這份人類的天賦,才創造出了這些非凡的工具。

機器不會思考,只會計算。機器不會感受,只會處理資訊。機器沒有意識,也沒有道德感,它只是匯集資料。

我們絕不能忘記,所謂的「對話代理」並不是「另一個」人類。我們必須把它視為一種工具,而不是另一位。機器不會思考,只會計算。機器不會感受,只會處理資訊。機器沒有意識,也沒有道德感,它只是匯集資料。機器沒有活生生的身體,儘管它消耗驚人的能源。它的「智慧」與任何感官都無連結。機器沒有同理心,只有預設好的回答。機器沒有父母、祖父母,沒有世代間的傳承。機器沒有回憶,只有存儲的數據。

教宗良十四世提醒說,人工智慧「與男女的人性智慧根本無法相比,因為人性的智慧具有創造性、充滿活力、生生不息,能夠在一個活生生而豐碩的意義探索中,把過去、現在與未來結合並承擔由此而來的一切倫理與存在層面的涵義」」(《公共權力禧年講話》,2025年6月21日,參考教宗方濟各在七大工業國高峰會議上關於人工智慧的講話)。機器不會在內心深處、憑著靈魂與良心做出決定;它只是執行選擇。機器不會培養德行,它只會變得更高效。機器沒有靈魂,沒有愛……

機器沒有勇氣

我們必須謹慎,不要把專屬於人性的能力投射到這些驚人的工具上。人類的智慧豐富多元,因為它擁有獨特的幅度:關係性、情感性、感官性、記憶性;它擁有對情境的理解,能適應,並在直覺或更高善的引導下,做出「超越常規」的決定。舉例來說:著名的航空機長Chesley Sullenberger,在電影《薩利機長》(Sully)中由Tom Hanks精湛演繹。這部影片講述了一場非同尋常的飛行「事故」。當飛機引擎爆炸時,這位元經驗豐富的機長,並沒有聽從儀器的折返指令,而是在幾秒鐘內迅速判斷,最好的辦法是迫降在哈德遜河上。起初,調查人員認為他的決定是不負責任的,但最終證明,那是唯一能避免飛機墜毀在紐約市區的可行方式。那一天,這位英雄雖然身處恐懼之中,卻依照人們常說的「聽從自己的勇氣」來行動,並救下了全體機組人員和乘客。「勇氣」一詞源自「心」(cœur),那是我們人格的中心,是我們情感與意向的所在,正是在這裡,理性與意志彼此對話。這個「心」,深植根於我們的人性、我們的歷史、以及塑造我們的一切之中。

對話代理並非萬無一失,它們會出錯,甚至可能胡亂編造資訊。我們絕不可將它們的回答視為絕對可靠的事實。連OpenAI的執行長Sam Altman都對人們過度信任 ChatGPT 感到驚訝,「因為人工智慧會編造內容。事實上,這是一項我們不應盲目信任的技術」。今年6月19日,在羅馬舉行的第二屆人工智慧年度會議中,教宗良十四世提醒人們注意,「人工智慧可能會影響人類對真理和美的開放態度,以及我們理解與詮釋現實的獨特能力。」

與人工智慧共處要有智慧

教訓是:別讓我們的大腦辭職!我們要保護那些無形而珍貴的財富:記憶力、創造力、分析能力和批判精神。數位工具不會在一夜之間消失。我們需要做的是,無論個人還是集體,都要「掌握主導權」。即使ChatGPT不會讓人變得更聰明,但是人可以用聰明的方式來使用它。為此,我們必須以「有智慧的」方式使用手邊所有資源。這是必須的,甚至也涉及到生態議題,雖然這方面很少被提及。

根據國際能源署的資料,一次ChatGPT查詢的用電量是Google搜尋的十倍。估計每次查詢還消耗半公升的水。雖然我覺得難以忍受法國國鐵(SNCF)在我每次出行時,提醒我「搭火車是最環保的選擇,等等……」,但我認為能夠獲得關於數位消費實際影響的真實資訊是合理且必要的。年輕人會很在意這些,他們是我們必須首先幫助、教育的對象,也許對其中許多人來說,我們甚至需要去「拯救」他們。

重新奪回自由

一位年輕的隨筆作家正在這些議題上嶄露頭角,《Aleteia》對他進行了專訪。他就是 Baptiste Detombe,《被瓦解的人》(L’Homme démantelé)的作者。這位年輕人承認自己是被數位巨獸吞噬的第一代的代言人。他說:「這是一個被瓦解的一代,被剝奪了共同的回憶、過往的經驗、堅固而有力的社會連結、某種內在性,以及與他者自然相處的關係。」他談到「「那些關懷他人的社群的死亡」,以及「對世界的驚奇之心的喪失」。我強烈推薦大家在這個夏天閱讀這本充滿活力的作品。他寫道:另一種世界依然可能。Baptiste呼籲我們在虛擬海洋中作磐石,緊緊依附聖保祿的話:「凡事我都可行,但我卻不受任何事物的管制」(格前6:12)。在我看來,探討這個議題,並非註定要陷入沮喪,而是重新奪回自由的一種方法。我們需要的不僅是政治上的振奮,更是人性的振奮。

文章、圖片來源:Aleteia.fr

 
 

敬祝 您和您的家庭平安喜樂!

生命倫理研究中心敬上

輔仁聖博敏神學院 | 生命倫理研究中心

感謝您捐款支持

郵政劃撥:19341893
戶名:財團法人天主教耶穌會(請於通訊欄中註明:生命倫理研究中心 或 救助胎兒專用)

彰化銀行-新莊分行:55500123973-810
戶名:財團法人天主教耶穌會(因有不同部門共用帳號,敬請來電告知姓名,以為專款專用)

支票捐款-抬頭:財團法人天主教耶穌會
地址:24255新北市新莊區中正路514巷103號,生命倫理中心 救助胎兒收

 電話:(02)2901-7270#250, 258, 778