EP121 台灣清華大學王道維教授:人工智能革命下的神學回應
嘉賓:王道維教授 (清華大學物理系教授與人文社會AI應用與發展研究中心副主任)
主持:董家驊牧師
什麼是生成式AI
董:ChatGPT自去年發布以來,已造成全球關注,科技公司紛紛加入AI技術的戰局,推出許多新的產品和應用,在學術界、教育界和商業界都帶來很大的衝擊,掀起大量的討論。今天我們邀請到長期研究人工智能的台灣清華大學—王道維教授,聚焦來談ChatGPT的生成式人工智能,如何影響到人類的教育與學習?探討對於教學者、學習者和知識之間的三角關係帶來怎樣的衝擊和改變?未來教育的焦點又可能會有怎樣的典範變遷?以及這對教會在培育門徒,又有什麼意義和提醒?
道維老師是一位很難被歸類的學者,他不只是台灣清華大學物理系的教授,也跨足了通識教育的各個領域,我今天下午聽一個訪談,就是道維老師跟神學家曾紹凱老師聊司法,關於如何透過AI來做司法判決。所以今天很高興可以邀請到道維老師,來談過去這半年,讓全世界不論是產業界、學術界、教育界都既期待又緊張的一個話題,即AI或ChatGPT的推出帶給我們的影響。可否請老師簡單的介紹一下,到底Generative AI(生成式AI)是什麼?以及自ChatGPT推出以來,至今半年當中發生了什麼事情?大家的反應又是如何?
王:謝謝董牧師,AI相關的應用是我們幾年前就已經投入的研究,然而去年這一波ChatGPT的發展,仍然讓這個領域的人都非常驚訝,這樣講是非常公允的。原因不是因為「生成式AI」,「生成式AI」也不是最近才出來,事實上,這種對話機器人幾年前就有了,不是新的東西。但是,就是因為不是新的,所以相關領域的人都不覺得它會帶來多大的成功,因此當它出來的時候,突然讓所有相關領域的研究者都很驚嚇,覺得怎麼會如此?關於成功的原因,等一下我會再說明。
先回答董牧師的問題:「什麼是生成式AI?」它當然是某一種人工智慧。或許大家可以想像一下,印象中最深刻的一個AI的產品或應用是什麼?也許董牧師可以說一下你認為的AI。
董:我想到的可能很老土,就像iPhone Siri 或者是Alexia。
王:是,那是一種對話機器人,之前還有一個很有名、下圍棋的機器人AlphaGo;或者在一般生活當中常看到的,包括手機的Face ID,用臉部可以解鎖;或者車牌辨識,把影像分類,辨識是0到9哪一個數字;醫院裡面也有應用AI來做影像的診斷。再細分下去可以有很多種,不過這些多半都可以歸類為「分類型」的AI,例如看到一張照片,判斷是否是某一個人,這種「是」或「不是」的答案,從原理上來講就是所謂「分類型的AI」。但是像AlphaGo下圍棋,它可以說是一種「預測型的」,走的步伐可以有很多種,需要預測下一步走哪裡,贏的機會比較大。一種是分類型,一種是預測型,預測型則可以預測很多不同的東西。
而「生成式AI」和前面兩種不太一樣之處,在於「預測」或「分類」多半都有一個標準答案:預測能不能贏、能不能清楚分類0和8,類似這樣的問題。但是「生成式AI」的意思,是在輸入一些文字、符號或訊息之後,它產生另外一些文字、圖片或資訊。也就是說,它重點是在「產生」,因為產生的方式有很多種,所以沒有標準答案。比如你問ChatGPT一個問題,它回答問題的方法很多,不會是每個字都完全一樣才叫做標準答案,因為它就是負責「產生」,產生文字、產生圖片(常見的軟體例如:Midgeri或TableDiffusion),所以叫「生成式AI」。
只是以前AI生成的內容常常是胡扯的,ChatGPT以前的版本就是讓人覺得它很會講故事,但這些故事有時有頭沒有尾,或是內容不太合邏輯,所以大家不認為它有用。而這一次的不一樣,主要的差別在於品質,而非新的東西。
ChatGPT生產虛擬的知識,必需再次核實
董:謝謝老師的解釋,確實一直聽到「生成式AI」這個名詞,但不太理解。這也讓我想到,上禮拜跟新加坡神學院謝木水院長聊天時,他提到一個概念:過去我們華人教會很熟悉的方式,只是拿一套東西來用,但是我們很少拿這套東西來生成、產生自己新的知識、新的insight(洞見)、新的做法,因此很多時候,我們的事工其實就只是一直在使用別人的東西。謝院長覺得,未來隨著人工智慧的開發,人有沒有生成知識的能力,會越來越重要。所以包括我自己也覺得很驚訝,如果今天生成式AI就可以做到生成知識的話,那真的是會很驚人也很嚇人。
王:我想補充一下,就像剛剛董牧師所講,我覺得那是一個很重要的觀察,因為很多人對生成式AI或者ChatGPT剛開始的時候,會誤解把它當成一個搜尋引擎,比如Google,有問題詢問它,它找到所需的網頁,然後回答我們的提問。所以剛開始我們以為「生成式AI」是一個搜尋器,實際上這是很大的誤解。
以Google來說,它搜尋現有的網站,根據關鍵字,找到這個網頁,而這個網頁可能可以回答你的問題,也可能無法回答你的問題,Goolge只是找到跟問題相關的解答,至於要不要相信這些回答,那是使用者的決定。其實就像圖書館一樣,所有書都在架上,它只是幫讀者找到這本書,至於這本書對讀者有沒有幫助,那是另外一回事,所以Google不太需要擔心事實的問題,因為它只是連接到那個網站。
但是生成式AI就像剛才強調的,它是產生文字。它不是看了這本書、這個網頁,然後告訴你內容,可以在這個地方找到正確的知識。所以說,生成式AI本質上,根本就不應該相信它講的,因為它是根據所問的問題,從它訓練的資料裡面訓練得到一些參數,並由這些參數決定,會說出什麼答案。不是因為這些提問,然後它到網路上去查一查,看哪些答案符合問題,它完全沒有做這件事。它的模型裡面,雖然經由很大量的文字資料來訓練,可是訓練完之後,這些文字資料沒有在它的記憶體裡,記憶體裡存下來只是這些模型的參數。雖然沒有人知道這些參數的意義是什麼,但是它有個功能,就是很多不同的問題,它都可以回答出一個很合理的答案,雖然內容合理,但是沒辦法保證這些答案是檢查過且正確的。所以生成式AI完全只是產生東西出來,本質上應該是錯誤的,但是,很奇怪的是,大部分人在使用ChatGPT時,會發現回答都還蠻合理的,這才是讓人家覺得驚訝的地方。
我們從這個角度來看,生成式AI從來沒有因為你的問題,去網路上尋找標準答案,當然它現在可以開始連網了,但連網之後它搜尋的方式也和Google不太一樣。因此,我先釐清,我們不能夠把ChatGPT所產生出來的文字,當成正確的知識或答案,真的不應該這樣想,你要先假設它可能是錯誤的,但是很多時候我們會發現,好像也沒有想像中那麼糟,甚至好用。
王:在我一篇文章裡,我定義這種用AI大型語言模型所生成出來的文字,為「虛擬知識」(virtual knowledge)。為什麼是virtual?因為它是虛擬的,不是檢查過、證明是對的,它只是產生出一些東西來,這些內容頭尾連貫、有邏輯、有架構,可以被當成是一個意見,但這個意見本身是不是真實可靠?理論上應該要再確認過,跟真正有基礎的資料做比對,才能夠知道它是不是真實的知識,由於它是介於意見跟知識之間,所以我給它一個名稱叫「虛擬知識」。
我有另外一篇文章,談到人的語言溝通可以分好幾個層次:第一是字或詞的層次;第二是訊息的層次,像一、兩句話;第三是意見,由一個段落來表達一個完整的概念;第四個是知識,知識和意見的差別,在於知識不但有結構,而且可以跟現實世界有對應,確認內容可信;最後第五個是洞見的層次,即除了知識之外,有一個更廣泛的整理和整合。
而ChatGPT告訴我們的內容,正是介於意見跟知識之間,它看起來很像知識,但很多時候必須再次確認,才能夠確定是否正確。舉個例子,ChatGPT也可以產生電腦程式,只要跟它說,幫我寫一個Python的程式,目的是為了要做什麼工作,它幾秒鐘就能提供幾十行程式。如果在簡單的情況下,大部分你把程式直接複製到電腦測試,它是可行的、正確的並且可以得到你要的答案。可是有些時候,裡面有些它自己都不知道的漏洞,當你放到電腦裡卻發現不能運作,這時你需要再回去問它,它才會發現也許哪裡出了問題,最後再修改。它為什麼會給錯誤的東西呢?因為它產生這些程式的時候,沒有親自去測試,它只是根據過去眾多工程師寫過的資料,來猜測你需要的結果。所以說必須要確認,才能夠知道它是否為真,這最後的步驟是人必須要做的事,如此我們才會知道要如何運用它。
常見迷思:ChatGPT並非搜尋引擎
董:老師剛剛提到五個不同的溝通層次:字詞、訊息、意見、知識跟洞見,ChatGPT所產生的內容,其實是介於意見跟知識中間,而老師對知識做出定義,它是可以跟現實世界去對應的,或者說可以去核實的。
王:是,知識是有內在一致性的。
董:所以從某種程度來說,其實ChatGPT所產生的內容,人類需要具備一種核實的能力去檢驗它,不然,若我們把它產生的東西當作是知識來看的話,或許某些答案有錯沒關係,但假如我們的知識訓練,是長期根據這個模型的話,非常有可能會產生很嚴重的偏誤。
王:當然是,比如我之前嘗試問:「請問清華大學校長是誰?」它每次都會給出一個人,我說不是,它再給一位教授,仍然不是,它就再說另一位教授,可是實際上那位教授可能根本不存在。我也曾把自己的名字打進去問這是誰,它就會講一堆不正確的解釋。總之,每次問都不一樣,但是它都會說得好像它知道正確答案的樣子。
王:所以什麼時候會誤用?關於資訊的事實性比較容易有誤,假設我是外國人,不知道清華大學校長是誰,我把它當成一個Google的搜尋器,它說一個人我就相信,以為是正確的,可是實際上卻相差很多。但假使問它一個不是很嚴格的問題,沒有正確答案的,而是一種概念、理解或觀點,通常過去的資料中,已經累積了相當多這類的內容,也有一定的模糊性,那麼ChatGPT可以用還不錯的方式把答案呈現出來,甚至還可以問的更多、更細,那麼它就是有幫助的。可是回到原來的討論,例如問它一個聖經問題,若我對聖經的了解沒有那麼完整,我聽它講得頭頭是道,就會覺得好像是對的,如此一來我可能就完全相信它了。
最好的使用方式應該是,我對這個領域有一定程度的了解,但是某一部分的知識稍微不熟悉,沒辦法掌握很多細節,因此我在知道自己不會被騙的情況下詢問它。它提供答案後,我能判斷大概是正確的,和我印象中的很類似也很合理,跟我了解的其他知識也是相關的,那我就可能可以相信它,這樣的使用方式是最適合的。
ChatGPT對「教育考核」的衝擊及轉變
董:科技的發展,某種程度也會影響人類學習的方式。正如同在我們成長的過程當中,Google開始越來越紅,所以很多時候我們這一代人學習的方式會說,Google一下就知道了,它會影響我們這一代的學習方式。而隨著ChatGPT的出現,老師認為這對學習方式會有怎樣的衝擊跟轉變呢?
王:我有另外一篇文章也許可以作為參考,我認為這個影響當然是非常大,剛開始ChatGPT出來,教育現場馬上第一個反應就是:怎麼學生的論文或報告的程度都變高了?有些美國大學甚至發現,全班報告寫得最好的,其實是ChatGPT寫的。畢竟那時候老師都還不太知道,學生就已經在用ChatGPT了。
所以當時花很多時間在思考如何防範它,甚至用什麼AI的軟體去分辨、準確率會達到多少之類的。但那時候我就覺得不對,這樣一定沒有用。因為生成式AI可以產生成千上萬的版本,而且這些版本還不是網路上已經有的,根本查不到,還可以要求它產生什麼樣的格式、風格,所以怎麼可能查得出來呢?因此,現在教育現場要想像一件事,我們必須假設學生在用ChatGPT,假若老師要求或檢核的標準仍然是根據最後的結果來判斷,一定會發生很大的問題,因為最後的結果很可能不代表學生真實的狀況,而發生一種表面上的矛盾現象。
教育的目標其實不在於結果,而應該在於人。不見得一位很了不起的學生考到100分,才說這是成功的教育,很多時候我們希望在過程中,培育學生有能力、有思辨的方法,可以處理面對未來的問題,這才叫做教育成功。因為問題會改變、時代會改變,我們強調必須要有內化的過程,讓學生在過程中能探索失敗,在重新努力的當中,越來越形塑相關的能力和素養,這個過程是需要時間的,所以才有所謂「十年樹木,百年樹人」。
可是AI呢?它的目標就是從你的input(提問)、你提供的raw data(初始資料),然後直接output(生成答案)。中間的過程就像一個黑盒子,它經過很複雜的模擬、計算過程,和人的思維方式完全不一樣。如果說,我們只根據最後的結果來決定學生的素質,當他使用AI時,你就完全沒辦法了,因為你只看得到最後的結果,而那是AI負責產生的東西。
因此,教育現場對學生能力的評估,產生了很根本的改變。傳統的做法是,例如藝術類的學生,他用一天畫完或花了十個月來畫,可能都不重要,最重要的是作品呈現出來的樣子;或者,學生交一篇論文,老師就看這篇論文的深度、矩陣和架構如何。這些都是最後的成品,根據成品來看學生內部的知識、花了多少時間、了解到什麼程度、做多少文獻分析,老師是根據最後的成品來判斷學生學到了多少,那更不要說考試了。
如果是這樣的話,就會發現這種考核方式在以後很可能無用,因為失去了中間的過程,以前會認為中間的過程無法被取代,除非找槍手,但是現在網路上到處都是槍手,根本沒辦法禁止。因此,對學習現場而言,最重要的一件事,就是考核的方式要改變。考核方式可能必須要包含整個學習的歷程,這些歷程必須要用某種方式被記錄下來,即使用ChatGPT或者查網路也沒有關係。透過紀錄學習歷程,可以看到學生做了哪些努力,或者透過最後的成果發表,把學習歷程呈現出來,讓老師相信,在這個過程中是有經過一些思考、一些改變,而不是只有最後的結果。
這樣的改變會有什麼影響呢?老師必須要花更多的時間來了解學生,代表現在很多大班制的課堂,將來會被迫要變成小班制。因為只有在少數、小班制的情況下,老師才能夠一直跟學生相處在一起,才能夠知道學生在每個階段的情況。如果是大班制的話,我們幾乎不認識每一個學生,只能根據他有簽名的作業,來說明他學到什麼,我就失去了對他的了解,也失去了辨別他是否真的學懂。所以大家可以想想看,大學教育的資源分配、課堂教室之類的設計,理論上可能都要瓦解、並重新建構,才能夠有更好的發揮。
ChatGPT對學習心態的挑戰
王:我再補充,從學習者角度來看,如果要認真學習的話,就不能只是把ChatGPT或生成式AI,當成產生最後結果的工具,因為會發現並不會學到真正的知識。例如我有一個學生,他在我的團隊裡做ChatGPT相關的研究,前幾個月當他開始投入去玩ChatGPT,就發現一件事,他用ChatGPT可以寫出以前寫不出來的程式,用那個程式去測試,竟然可以產生他原先想要的研究效果,但是以前的他寫不出這樣的程式。於是這位學生心裡非常的驚訝:「這個東西到底是從哪裡來的?」當然如果從效果而言,他可以覺得自己賺到了。
但我很佩服這位學生,也還好他是基督徒,他內心質問:「我真的學到什麼東西了嗎?」他很惶恐地告訴我,他其實還不知道這個程式到底為什麼會這樣寫、為什麼會這樣運作。因著擔心,他決定回頭一行行地去了解,雖然已經有了答案,但是清楚了解這個程式到底如何運作,他才能真正安心地覺得自己學到了。
所以,從學生的角度來講,考驗在於是不是真的想要學?還是只是想要得到結果?兩者的差別在於,如果我們還是強調學歷可以有怎樣的工作,即便課程內容不見得是喜歡的,只要達到最低標準就可以了,如果是這樣的話,那學生當然會想要用ChatGPT,因為這樣可以節省時間,畢竟不喜歡學,但是可以用來應付老師。
可是,如果有學生真的很喜歡學習,例如喜歡彈吉他,會想要用AI來幫忙彈吉他嗎?用AI錄的錄音告訴老師說,我會彈吉他?我想應該不會有人這樣,因為若你喜歡彈吉他,就是喜歡自己彈,哪有人喜歡彈吉他卻叫AI幫他彈?所以學習者要思考:「我是不是真的選擇了一個熱衷的方向?」以至於我希望用AI來幫助我,但是我不會要AI來取代我,因為這是我想要做的事,怎麼會叫它來取代我呢?可是我會請它來幫助我學得更好,如果是這樣,那就沒有問題。
所以現在強調考試、重視學歷、或強調功利主義的學習態度,到未來會受到一個更深的挑戰,我覺得是好的,希望學生是真的選擇他有興趣的方向並且願意投入,才能不斷的利用AI和ChatGPT幫助自己做得更好,這樣的方式是我們樂見的。但是,如果學生只是為了要拿到一個文憑、一份較高的薪資,而勉強使用ChatGPT或AI,終究他沒有辦法在教育過程中,幫助自己真正有所成長。
因此,不管對教育者或學習者,我認為影響都非常大。但是我們還在思考如何能調整到一個理想的情況,畢竟社會的變動、現實情況沒辦法同時改變,所以目前仍在摸索中。
教育的真正價值:不在結果,乃在過程
董:坦白說,老師談的超過我原本的預期,但是非常好,第一個談到教育者的部分,很重要的思考是,我們到底怎麼去評估教育的標準和內容?老師提到的重點其實是在於人,而不是產出的結果。唯有回到人的角度,我們才能重新去思考到底要如何檢驗,似乎逆轉了工業革命以來,我們希望用一個標準的制度、大量地製造出大班制的學生。
王:對,那還要看起來很公平。
董:是,這種大班級的思維,就像一個最優秀的老師,可以同時教一萬個學生,可是今天如果還要用這樣的方式來教學,其實我們只是把焦點放在「結果」。隨著ChatGPT生成式AI的發展,才會發覺,真正的重點不應該是結果,而是人。我剛才聽覺得蠻有盼望的,這不代表很多人會失業,只是代表需要轉業,去更看重人的價值,我們需要更多的老師。
王:傳統工業時代想要用標準化,用很有效率的方式來處理,現在我們可能要重新想一想,是不是還能用一樣的方式?當然也會帶來其他影響,因為一旦不標準化了,每個人的標準都會有差異。以及,要如何去看待一個學生的學習過程,因為要考慮的面向更多,這時候就考驗著我們真正在乎的價值到底是什麼?是更有效率、更便宜、更快速、還是更真實或更有品質的感受?這些很難用量化的方式來描述,但是未來可能的確會更重要。
董:剛剛老師也提到,從學習者的角度,重點就是學習動機。如果我們只是要一個產出而忽視學習的過程,也不在乎自己會不會學到東西、只是要交出一個成績的話,坦白講,這樣的學習很痛苦。因此,學習者的角度變得越來越重要,要找到問題意識、學習動機,才有可能透過AI來學習,或者更好地使用AI,而不是讓AI取代了整個學習的過程。
AI素養與協作共學
董:我知道清華大學近期發表了一個,大學教育場域的AI協作共學和素養培育的指引,老師也參與在計畫裡,你有提到一個概念,所謂「working with AI—跟AI一起協作」跟「learning with AI—跟AI一起共學」,可否請老師解釋一下,這份文獻背後的核心精神是什麼?到底什麼是「working with AI」、什麼叫「learning with AI」?
王:雖然我有參與在這個小組中,不過當時開體制會的時候,我比較是以線上的方式參與。但我們有很多很好的同仁,所以大家都貢獻很多重要的意見,因為我之前有參與屬於人文社會領域的AI相關研究與應用,所以也在其中提出一些個人的修改意見。
其實我們強調的是AI素養的問題,意思就是說,在未來的世代,AI幾乎是不可避免的一個存在,而我們如何把這樣一種新的工具,納入到既有的學習脈絡中,讓它能產生更多正面的效果,而不是只是花時間在處理或避免負面的影響。
AI素養,是指跟AI一起工作、一起學習,所謂「working with AI」,在現有的校園或未來在職場上,有很多的工作,其實是可以用AI來取代的,那些可以用AI來取代的工作,不見得不重要,而是說它有某一些特質,以至於用AI來執行,可以大大增加工作效率,並且提高產出品質。這樣做的目的,是為了讓人們可以花更多的時間,專注在AI無法取代的工作上,那將會是一個合適的方式,畢竟我們花那麼多時間從工業革命到科學革命,做基礎科學或工業發展,就是為了讓下一代能有更好的生活,不用像以前一樣,為了糊口,花很多的精神、造成很多生命危險。
因此若現在我們有能力做到,就應該鼓勵學生能夠善用這些工具,例如ChatGPT的文件處理能力,像我自己做過教案的設計,對它說要開設一門課、大概要講什麼內容、需要幾周幾個小時,請它列一個大綱,它十秒鐘就能做出來。如果說從十八週要改為十六週,就算變到五週,它也能馬上修改,而且內容都滿合理,不是東拼西湊的。如此一來,就可以節省思考的過程,當然也不是說可以直接用它的東西,而是它可以幫助我們越過了一開始最花時間產出草稿的階段,而且多按幾下,十個版本的草稿就可以挑,挑選完以後,再用很少的時間,就可以得到一個還不錯的大綱,甚至比原來想的還要好。可以把時間更有效地集中在充實內容或更有影響力、更重要的事物上,像產生大綱這類的工作,以前是很難找別人代勞的,通常就是找網路上現有的版本,但不見得合適,沒辦法客製化修改。所以說,有些工作以前沒有想過可以用AI來取代,現在可以了,而且很有運用價值,這就是「working with AI」 ,可以提升效率,把節省出來的時間,讓其他AI做不到的事,做得更有品質。
另外一個在學習上常出現的例子,是老師們要花很多時間看學生的論文,現在論文也可以用AI來做初步的篩選,分類這些論文和報告是跟哪一些、哪一類主題相關,對於老師在安排時間上,就會更有效率。
另一個「learning with AI」,是從學生的角度來講,如同剛才所說,相當於有一個幫手在旁邊,特別是想要跨領域、接觸一個還不太熟悉的領域的時候,這時候就相當於有一個人在旁邊,能夠讓你隨時問,不必覺得害羞,也不像一般老師會說,這個問題那麼簡單還問?可以問AI一些基礎的概念,然後去了解這些內容和原本設想的是否接近,或者它怎麼去連接到現有的知識?我幫過一位讀法律的學生,他想寫一篇跟AI相關的法律以及制裁權的報告,我就教他把這幾個關鍵字放進AI裡,然後請AI產生幾個主題供他選擇,AI給了十個主題。過去他不知道如何把這些關鍵字組合起來,現在透過AI可以有一個概念和方向,再利用AI產生幾個大綱,這位學生就可以循線尋找相關的論文,接著是相關的論述,最後慢慢整合起來,這個就是藉由AI來做學習的很好的例子。就如同現在不管做任何學術搜尋都要用到Google,如果懂得用,它就能幫助到你,但是不要讓AI取代人做成這件事情,這是一個很重要的AI素養。
所以,要知道如何善用它,也要了解怎麼分辨它,如果它出現問題的時候,可以早一點發現,不會直接把它的產出內容交出去。真的碰過有學生交報告,就真的直接把產生出來內容複製貼上,有的連開頭「你好我是ChatGPT」或者「你好,我是Beam」都沒有刪除,那真的是太混了,連修改都不願意做。
因此老師也需要做一些調整,讓學生真實的知道如何跟AI一起學習,才能更有收穫。用個比喻來說,如果靠學生自己,也許一學期可以讀十篇文章,然後寫一些心得。可是現在ChatGPT可以幫忙摘要,所以老師可能給一百篇,要學生找出相關的十篇,學生就可以利用ChatGPT幫忙摘要這一百篇文獻,從這些摘要裡,找出他認為真正重要或有興趣的篇章,再仔細去研讀。如此一來,比起過去只能讀十篇文獻,學生就可以得到更貼近他研究相關的內容,這就是善用AI科技了。
董:這讓我回想寫讀博士論文的時候,常常一次要在圖書館借三、四十本書,花半天的時間掃過每一本,然後把覺得重要的三、四本找出來。而現在,我發現在做一些研究的時候,真的可以在Amazon上找到大概二、三十本書,然後透過ChatGPT提供這些書的摘要或重點,就能做第一層的過濾,當然不代表這樣就理解那本書的精華,最終我還是要花時間閱讀這本書,但是這個過程減少了很多的時間成本。
王:對,只要你覺得有興趣的,就不會停留在ChatGPT幫忙看過就好了,這樣只是交差,一定會再認真看這些資料,那麼就會看到很多沒有看到的東西,如此,便可以站在一個好的位置來使用AI。
董:就剛才老師說的,跟AI協作、working with AI,很重要的是我們要分辨哪些東西是AI可以做的並且做得更好的,哪些東西是AI無法取代的,以至於我們可以更專注在那些無法被取代的層面。老師也提到,learning with AI 一個很大的幫助是在跨領域的學習上,其實老師本身就是一個跨領域的實踐者,我很喜歡你用的一個比喻,我們好像都在一個球的表面上,不同領域就好像在球不同的表面,跨領域的意思就是,從球面的A點走到B點時,不一定A點或B點哪一個是絕對的真理、正確或核心,可是因著走過球面的弧度,可以知道其實球心往往不是在表面,而是在更深層的地方。
王:對,有更高緯度的體會。
生成式AI的局限和人的能動性
董:所以我覺得AI它真的可以幫助我們,更容易地去跨越既有的領域,並且不害怕去學習。但是我們也需要有警覺心,就是AI產生出來的東西需要經過檢驗,不能直接當作是正確的知識。
王:我每次被邀請談這個主題的時候,都會希望有點時間先說明生成式AI的原理及是怎麼生成出來的,越了解就越會知道它不會出現什麼樣的內容。如同剛才所說,生成式AI是從大量的文字裡,去尋找文字之間的關係,所以它產生出來的文字基本上都非常通順,不太像以前電腦產生出來、不太像人說話的文字,這點是可以放心的,因為它是用幾千億大量的文字去訓練出來的。可是也就是因為如此,它產生出來的知識通常都是根據問題,連接到那些面向找出來的,某種程度相當於是這類資料裡的主流意見,當然它還有訓練的過程,它會把人類的價值觀放在裡面,這也許是後來很多信仰討論裡很關鍵之處,所以ChatGPT是有價值觀的,至少目前的版本像是一個主流意見。
因此,我們不用期待ChatGPT會提供像學者深度的內容,或很獨特、專門的特別知識,那種深度或高度是不會在它裡面出現的,有一些學者會覺得ChatGPT的内容很普通,就像大學生會講的一樣,因為可能那類知識太少了它學不到,會被其他的資訊淹沒、沖淡了。所以,真的很了不起的洞見,是留給人類的工作,我們不用去責怪ChatGPT,因為這是人的責任。
也因為這樣,它給我們另外一個幫助就是,不要期待它做上帝,不要期待它做出高於人的標準的決定,那樣是不合理的。但是它可以告訴我們所缺乏的,例如,雖然在我的專業領域裡,它給的東西會讓我覺得很普通、很平常甚至還有錯誤,可是如果我要跨到別的領域去了解時,我可能沒有能力去分辨錯誤。所以若我能夠善用它,還是可以藉由它的幫助,了解新領域裡的一些基本常識,等於說我有一個家教,只要願意去學習、去接觸,它隨時可以回答問題讓我使用;反之,若我沒有意願去接觸新領域,就算有AI,也不會有幫助,所以背後的能動性,還是掌握在人手上。
AI影響神學教育—動態的知識傳遞
董:我想要切入那這對今天教會的門徒培育、甚至神學教育的意義是什麼?剛才我們談到很多教育者和受教者,我想在門徒培育或者神學訓練上,其實都有類似之處,但是做為一個牧者和神學家,坦白講,今天各個領域的發展、整個社會的動脈都太快了,我們光是要保持自己在各自領域裡面,隨時更新充電,可能都已經很吃力,更何況還要去思考其他不同領域的發展。雖然ChatGPT是今天幾乎所有的知識工作者,都認為必須要回應的,但是我們好像仍舊處在一個很被動的角色,有的是極度樂觀,覺得太好了,這會帶給我們一個全新的未來;有的很悲觀認為,這會不會是The end of knowledge (知識的終結)?會不會是人類求知的結束?但老師方才先幫助我們回到什麼是「生成式AI」,才不會很快就進到極端,因為很多時候我們對人工智能的想像……。
王:就以為它是上帝。
董:是,也受到小說或者科幻電影的影響。所以我想請老師來談,從你的角度,AI對今天教會在培育門徒或神學教育上,會帶來什麼樣的衝擊、挑戰跟機會 ?
王:我認為教育場域跟信仰場域有類似之處,比如「培育門徒」在某程度上,就相當於是一個教育的過程。另外,我曾在一篇文章(關於「ChatGPT與基督信仰」常見的問題與回應)提到,傳統教育是線性的,從研究者起始,相對於神學研究的神學家或聖經學者,他們從經文和原文中,研究出一些重要的想法,然後,由教育者教給學生或信徒。上、中、下游一個線性的過程,傳統教育皆是如此,有研究者、教育者和學生,由教育者來評估學生,由研究者來決定何謂知識。在這樣的脈絡下,可以想見跨領域會比較困難,因為每一個領域都有它的研究者、教育者和學習者,就像大學裡有科系,每個科系都有它的資深教授、中間分子和學生。學生何以畢業,就由上一層的人來決定,所以跨領域變得很難,因為他必須要滿足另一個領域教育者的要求,通常在體力、時間上,都是很不容易的,不太可能雙軌、三軌同時存在。
然而,現在有AI的虛擬知識ChatGPT,傳統上的「研究者、教育者和學生」三者之間的關係,就會被打平,但也不是完全的平等。意思就是說,研究者一定會發表他所研究的內容,不會藏在自己手上,而發表出來後,就有可能會被AI收集進來,成為它的知識庫;還有教育者的教材、內容,也會貢獻到網路上;至於學習者,很多時候也是從網路上學習,所以這中間就存在一個融合的空間,是由「研究者、教育者和學生」一起共同參與的,而這樣的參與已經不是過去的線性關係,因為透過AI,是點到點的連結,而且學習者的身分,也不再像過去一樣卑微,學什麼都要由老師來決定。
但只要用過ChatGPT就會發現,它是根據提問的問題來回應,問同樣的問題,當然它大致的回答可能差不多,可是若再追加一些條件,例如以教會常見的主題「在基督裡的自由」預備一篇講道,請ChatGPT給大綱、相關經文並舉例,它馬上會出現一個;接下來,可以追問,若今天講道的對象是一群家庭主婦、在家的姐妹,請調整相關的經文、例子和大綱,它也會立刻修改,例子可能改為關於孩子或家庭裡發生的事;如果再更換對象,今天是教主日學裡的小學生,「基督裡的自由」這個主題可能對一般兒主老師來說,會覺得有點困難,但是ChatGPT會幫你產生一個不錯的版本;當然也可以改為對職場人士或大學生等等的面向。
這時候會發現,知識本身不再是靜態的,不是神學家筆下靜態的知識。過去通常要先研讀,之後自己內化、思考要傳遞的對象是誰、要怎麼說,過程非常耗費時間。在今日,ChatGPT可以把這個過程直接省略,所以什麼叫做知識?一開頭我提到的「虛擬知識」,其中一個觀點很重要,知識不是一個「靜態的命題」,不是絕對的、也不是只能一種表述,事實上,它關乎誰來聽?誰來用?誰來理解?ChatGPT就是在做這樣的事,它根據問題、目標受眾、架構型態來提供内容,這些知識內容會塑造成提問者想要的樣子,讓它更容易被吸收。
AI影響教會—道成肉身的幫助者
王:從這個角度切入,再來想想看,它對教會的影響是什麼?傳統上傳道人本來要花很多時間思考,如何針對會眾的理解程度或背景,來傳講和應用經文,有時候,傳道人也可能因為生活環境的限制,對於某一類背景的人的了解比較少,也不見得能真正設身處地了解會眾在乎的重點,以至於必須承認,有時候牧師講道的內容,可能符合部分人的期待,另一部分人可能覺得有隔閡。
這時若能善用生成式AI的工具,就可能幫助牧者把所傳的道,更貼近於會眾。這在以前不容易,因為牧師個人的經驗、知識、背景都是有限的,但是AI的加入跨了很大一步,只要再配合一些網路資料或相關人士的經驗和理解,牧者可以將講道塑造成一個更合適會眾、更容易吸收的內容。
如此一來,知識不再是由上而下階級式的傳遞,如同耶穌對法利賽人和猶太人那些社會高層,他講的內容跟對農夫、稅吏、妓女是完全不一樣的,耶穌講的比喻太生活化了,例如撒種的比喻,當時的人聽了都覺得特別,因為那是他們生活中的東西,我認為,耶穌的道成肉身,就是這個意思。
所以我們可以藉由ChatGPT這類的工具,幫助我們更容易把「道」成了「肉身」,傳到會眾和弟兄姐妹的生活、以及他們的腦袋裡。如果只靠傳道人自己,可能不那麼容易,但是若能善用工具,雖無法馬上到達彼岸,至少跨越了很大一步,後面的人要繼續補足內容,也相對容易許多,我想從信仰的角度來講,生成式AI相當於某種道成肉身的幫助者。
董:聽到這裡,老師一直在傳達兩個核心主題,第一個,是我們可以透過AI科技來擴展對不同領域、不同生活經驗的理解;第二個,老師很關注「人」,包括提到教育的例子,不論是誰來聽、誰來用、誰來理解,都有一個目標對象,所以今天在關注門徒培育的過程中,不只是知識的傳遞,而是對人的培育。
隨著老師提到ChatGPT能帶來虛擬知識的扁平化,過去可能要在神學院花三年的時間才吸收到的東西,今天不同領域的基督徒,只要有學習動機和動力,都有機會一窺不同領域的內容,只是需要有核實的過程。所以,教會未來在培育門徒上,也許最重要的是,幫助弟兄姐妹有核實的能力或提供可以核實的網絡機制,以至於帶來所謂神學教育的扁平化跟普及化。
王:是的,大家就不會覺得這是很高深的、只有少數人才接觸得到的知識,就算聽了不太懂,還可以繼續詢問,甚至可以告訴AI自己的程度高低,請它依據程度來提供内容。未來的團契生活,可能就可以透過這樣的方式把大家的知識水準搭平,可以當場查一下或分析是否正確,必要的話還可以再用Google找到更準確的關鍵字,去找到更合適的文章。
AI提供的是更豐富的,不像過去大家用同樣一本教材、按照SOP用在不同的人身上,這不是很奇怪嗎?因為每個人都不同,所以未來可以讓每個人把問題丟到ChatGPT或類似語言模型裡面,讓每個人得到符合他的東西,再進行討論,從教育角度來講,這就是真正的因材施教。
我相信從信仰角度來講也是如此,上帝認識我們每一個人,如同耶穌為了福音的緣故,甚至走到撒瑪利亞的村莊裡,當祂跟撒瑪利亞婦人談話時,是按照她的理解程度。聖經真理不是高高在上,造成別人聽不懂、沒法接受,就認為一定是對方哪裡不了解,很多時候是我們沒有辦法像耶穌,真的成為人的樣子,走到人群中,用人們理解的語言,來幫助他們認識上帝,這件事情有時候是我們能力不足,但是現在可以善用AI工具來幫助我們。
從神學角度對AI的反思
董:因為時間關係,再問最後一個問題,ChatGPT的出現不論在產業界、學術界、教育界、商業界都有不同的討論,從信仰和基督徒的角度,你覺得以神學思維或者傳福音,有哪些是值得反思的地方?
王:我們都了解神學的基礎在於聖經神的話,但是我們思想的對象更多是神和人的關係,在AI出現的時代,先不談信仰,光是世俗社會,它的確讓人本身對於自我價值產生了很大的質疑和挑戰,人文社會領域學者很擔憂,例如隱私權的問題,因為這種AI它收集了很多的資訊,但不見得都是合法取得,所以OpenAI沒有透露資訊從哪來,如果公開一定被告;還有類似像著作權的問題,生成式AI生成圖片的時候,它所產生的圖片是不是屬於作者本身的創作呢?而文章又需要修改了多少才算?這些關係到很實際、很真實的法律問題;當然還有倫理問題,例如最近在比利時有一位男子跟女性AI聊天,後來愛上它,最後因為覺得沒辦法跟它在一起,選擇了自殺,這讓他的太太非常不諒解。
類似像這樣的事情層出不窮,代表AI在很多領域都會產生實質的社會影響,因此神學怎麼可能置身事外呢?我們需要再重新思考,這樣的產品和它做出來的東西,雖然在信仰或教育領域有幫助,但它也的確帶來很多危險和誤用的機會,顯露出人的某一些罪性、懶惰或假訊息。而這些問題的本身都是人,只要是人相關的,都必須要有神學的回應,神學的回應不只是論對錯,而是要去思考背後的原因。
以剛才的例子來說,有人跟AI雲端情人結婚,從神學上要思考,到底為什麼會喜歡一個實體上沒辦法接觸到的人?這個AI所回應的東西,一定打動了他的某處,所以人心所需要的是什麼?為什麼在信仰上沒有辦法幫助他?或者說,如果我們面對有這樣需要的弟兄姐妹,我們該怎麼幫助他?舉例來講,在我們教會真實發生的例子,有一對年輕夫婦,先生因為疾病去世,他是一位很愛孩子、妻子的好先生,他的孩子年紀都很小。而現在有AI科技,假設這位先生生前的談話、影像、文字都被記錄下來,的確有可能用這些資料重新產生一個在螢幕上的爸爸,而且它會根據孩子跟它所說的話,有一些相關的回應。那可以想想看,對這個孩子而言,當他哭著吵「爸爸在哪裡?」的時候,它可以安撫孩子、陪孩子睡覺、講故事給孩子聽,若五萬、十萬塊可以買到這個科技,這位太太要不要?這個姐妹也很想念先生,孩子也還小,該不該鼓勵他們這麼做?這是犯罪嗎?這樣做的話,孩子會不會愛上螢幕上的爸爸?若是讓孩子以為他爸爸沒有死,是不是在欺騙他呢?
這些背後的神學思考,在牧養上、倫理上,不再只是簡單的否認或論對錯,或許以前科技達成不了,但若現在可以的話,是不是需要再重新思考:以AI方式來延續死後的生命,會存在在信徒生命中的哪一個部分?如果說信徒不需要,但是若未信主的家人使用,那怎麼辦呢?我們需要去面對並思考該有怎樣適當的規範或建議。剛才的問題在我看來,我會讓孩子用AI來與死去的爸爸對話,因為兩三年後,孩子長大,就會知道這些都不是真的,例如媽媽變老,爸爸怎麼沒有變老?或者講的話怎麼都是以前的內容,因為AI是用以前的資料訓練,不會有新的資料,時間一久,孩子就會覺得沒有趣了。
所以我認為還有更精細、更多的討論可以探究,也希望神學院的老師們可以介入這方面的研究,讓學生一起參與,也許以前的世代不需要直接面對,但是對下一個世代而言,這些就是他們的生活,是他們要直接面對處理的。所以當我們早一點開始思考,早點有一些妥善的預備方式,陪著信徒一起走過這個過程,我相信這會是神學上一個很值得去探討的新議題。
董:非常謝謝道維老師,關於這個議題實在太多可以聊,包括最近很多討論,生成式AI是不是應該要有一些價值規範?若說應該的話,那到底要以誰的價值來規範、或者哪一個意識形態?其實這些問題本身,回到背後都是神學性的問題,即我們怎麼去分辨這世界上存在的不同的意識形態?
王:當然,而且不同的AI效果也不一樣,有些AI的訓練,就是會偏向某一種價值觀。也有好多人問我,基督教要不要產生一個純正信仰的AI?我就會問,什麼叫做純正信仰?在人類社會沒有解決的問題,不要認為AI就可以幫忙解決。
董:是,所以其實是有很多東西值得繼續探討下去的,今天這集的訪談,並不是要給大家一個答案,也並不是說,聽完以後你就有一切的答案,而是給我們一個方向,繼續在新的時代當中,如何不單單是自己來學習跟隨耶穌,也是跟我們身旁的群體,一起在新的時代中跟隨耶穌基督,謝謝道維老師。
相關資源:
1.〈人工智能(智慧)的發展與基督教的未來〉,王道維
2.〈道可道,非神道?──從基督信仰看能言善道的ChatGPT與其對教會的挑戰〉,王道維
3.〈迎接「後知識時代」的來臨—從生成式AI的虛擬知識談起〉,王道維
4.〈關於「ChatGPT與基督信仰」常見的問題與回應〉,王道維
文字記錄:孫寧姐妹
文字編輯:呂昀嬪姐妹