人工智慧浪潮下的教學變革:教育者的挑戰、契機與因應策略|黃怡靜博士後研究員、盧鴻興院長,高雄醫學大學人工智慧生醫研究院

2026-01-01

黃怡靜1、盧鴻興2

1.     高雄醫學大學人工智慧生醫研究院博士後研究員

2.     高雄醫學大學人工智慧生醫研究院院長暨高雄醫學大學附設中和紀念醫院 副院長

 

在現今社會,生成式人工智慧(Generative Artificial Intelligence, GenAI)已被廣泛運用,並在全球迅速發展,形成一股強大推進的趨勢,而對學術及教育界帶來深遠影響。Hallquist et al. (2025) 以系統性文獻回顧近年82篇文獻,顯示生成式人工智慧在醫學教育中的多種應用成果,如高效率產出高品質臨床題庫、採用AI驅動的模擬訓練提升學員學習成效(診斷能力、溝通技巧及自信心)、透過動作分析客觀評估臨床技能以及卓越的知識整合能力(在醫學資格考試中取得高分或甚至通過)。目前有許多知名且功能強大的生成式人工智慧(GenAI)平台,ChatGPTGeminiMicrosoft Copilot以及Claude等,在教育領域中可提供個人化輔導、互動式學習體驗、協助評分、語言翻譯、互動學習表現等,協助教師增強教學效果與評估學習成效(Baidoo-Anu & Ansah, 2023)

 

整體而言,GenAI具有「教育的公平競爭與效率提升」的五項優勢,(1)能提升學術表現的起點:在非寫作專業課程中,GenAI可協助學生克服寫作障礙(例如語言、天賦限制),幫助學生創造出無錯誤、高品質的書面作業。(2)能快速、準確與減少人為疏失:具有效處理資訊的能力,比人類能更迅速地分析大量資訊,並找出複雜的模式及資料關聯性;以及透過演算法的自動化程序,在資料處理、報告撰寫等任務上消除人工錯誤,確保產出品質一致性。(3)能進行繁瑣重複性任務GenAI 自動化處理基礎流程(如文件驗證校對、資訊轉錄轉譯、簡單客服問答、錄音轉逐字稿;以及整體教學效益提升:使得師生的時間資源運用在更具影響力、更複雜的分析和批判性思維上。(4)可輔助教學及研究發展GenAI協作能提升基礎文稿撰寫效率,快速撰寫文章草稿;教師可設計練習作業進行主題式深化分析,讓學生評論GenAI撰寫的文本,並透過添加新資訊以及查核事實等方式,幫助學生加深印象來改進並增加理解主題。(5)無限可用性:GenAI服務可「隨時保持開啟」並立即作業,不受時間限制,能持續支持學習和研究,但應用該資源時有付費版跟免費版差異,仍需要考慮經濟因素是否成為同儕表現之間的影響因素,也許反而促成不公平競爭的現象?

 

但不容忽視的是,AI系統仍有弱點:(1)實際設計問題層面:應用者往往難以全面評估或理解系統在模型訓練階段,所使用的資料是否存在偏差或不完整性,亦無從得知模型開發者是否充分考量並處理這些偏差。此外,深度學習模型在運作過程中的決策依據不易被外界察覺,使得其內部運作機制難以解釋,此現象被稱為「黑箱不透明度(black-box opacity)」,當系統產生錯誤結論時,往往難以追溯其運作過程並理解決策形成的邏輯與原因。因此,我們不僅要關注錯誤如何發生,更應進一步思考:系統在什麼條件下能做出正確決策,以及其正確判斷的機制為何。(2)應用衍生問題層面:個人隱私、網路安全以及錯誤應用等,都是直面倫理的議題(Baidoo-Anu & Ansah, 2023; Kaur et al., 2025; Rawashdeh, 2023)隨著人工智慧被廣泛使用,使用者提及AI 幻覺(AI hallucinations)」的情況增多,例如產生與事實不符的結論、有害錯誤資訊、過度概括、虛構內容或不一致的回應,使人們在追求快速答案時更容易受到誤導。在教育環境中,若缺乏適當的引導來使用GenAI,學生可能因過度依賴其便捷功能,而減少與同儕或師生的溝通互動,進而錯失從真實人際交流與討論中察覺並修正自身學習盲點的機會;此外,不當使用或盲目依賴資料,亦可能會削弱學生辨別資訊可靠性的能力。

 

因此,隨著GenAI在多元場域中的滲透擴大,其技術風險與倫理議題亦逐漸成為制度性治理的重要課題,促使國家後續對於法制與規範架構的建構提出更高要求。根據行政院 (2025) 公布的「人工智慧基本法」草案中可知,政府針對各部會應用AI科技開始立法管理,該內容呈現在管理規則應具備的七大基本原則:「人類自主性、永續性、隱私保護及資料治理、安全性、公平性、透明性及可解釋性、可問責性」。面對求知快速的社會期待,各機構在推動AI學習與應用時,設計工作流程與合理進行方式的必要考量,這意味著:使用者不僅要學會快速運用AI技術、提升效率的同時,更要具備AI倫理與治理意識,然而AI開發者需要保障使用者權益(如隱私與自主性)、確保訓練過程的決策過程公平(公平性、透明性);所以使用者及AI開發者雙方有其角色承擔相應之責任(可問責性),從而建立一個永續且負責任的AI生態系統。

 

在此脈絡下,GenAIAI工具進入教育場域,促使教師需思考己身在引導學習的核心角色裡,該如何因應調整。

 

()「教師角色的再定義」

挑戰一:教師自身即是學習者

1.  迎向轉變的契機:隨著人工智慧浪潮席捲教育領域,教師的角色正經歷前所未有的改變,教師不僅是知識的傳授者,也需身處前線與學生並肩作戰,共同應對新科技帶來的挑戰和機會;同時鼓勵學生擁抱新知識時,教師首先必須成為勇敢的學習者。

2.  從傳統到智慧教學的適應轉折:面對日新月異的AI工具,教師同樣會經歷學習與適應的過程,甚至可能比數位原生的學生們感受到更大的壓力,可能也會出現科技焦慮的情形,對於教師而言,AI工具(如生成式語言模型以及自動評分系統等)都需要時間摸索與試錯,才能找到有效融入教學的模式,這項陡峭的學習曲線比傳統教學方法更需要教師快速消化及應用。

3.  轉變心態-成為終身學習的引導者:要在AI時代保有教學的引導地位,關鍵在於教師心態的轉變-從知識的權威,轉變為學習的「首席夥伴」,得擁抱「終身學習」的心態,並且勇於承認未知,向學生承認「這個我也在學!」,將課堂變為師生共同探索的場域;化被動為主動:與其等待研習或指令,不如自己主動發掘、嘗試感興趣的AI工具,將其視為專業成長的機會。

4.  學習駕馭AI,而非被其取代:因此,教師需主動探索,定期關注教育科技趨勢(EdTech trends),與組織成員組成學習社群,分享使用心得;重新定位教師的核心價值,在於引導思辨、培養價值觀與創造力,而AI僅是達成這些目標的輔助工具。若要保持引導地位,方式唯有不斷學習、親身駕馭這些工具,教師才能真正引導學生善用科技進行深度學習,辨識AI的優勢與侷限,而非被演算法牽著鼻子走。

『教師的目標不是成為AI專家,而是成為懂得如何引導學生善用AI的教育專家』

 

挑戰二:教學方法的創新

1.  破除傳統框架找到新價值:當標準答案不再是唯一、當知識的獲取已變得輕而易舉,傳統的教學方法(單向講授的侷限)就顯得力不從心,因為在學生能隨時向AI提問,教師若僅是「知識的搬運工」,將很難吸引學生的注意力,這時候教學的重點應從「給予答案」轉向「引導提問」。並且,當AI能輕易生成流暢的文章、解答複雜的數理問題時,傳統以記憶和背誦為核心的評量方式(紙筆測驗),已無法真實反映學生的素養與高階思維能力了!若AI擅長提供整合性的資訊與看似完美的「標準答案」,這反而凸顯了人類批判性思維、創新思維與價值判斷的不可替代性。

2.  尋求有效且有趣的學習途徑:現在教師們開始將學習活動遊戲化,藉以積分和獎勵提高學生積極性和參與度,運用翻轉教室模式師生應用網路材料一起進行實作活動和解決問題,或使用AI創建個人化學習路徑、提供即時回饋並自動執行任務、併用虛擬實境 (Virtual Reality, VR),實現沉浸式體驗,讓學生以更互動的方式探索環境和概念。

3.  重新構想課程設計:(1)引導式探索的必要:為了因應這些挑戰,我們需要重新設計課程,創造無法取代的學習體驗,並培養學生成為人工智慧時代主動的知識探索者,而非被動的資訊消費者;(2)設計出真實的任務:佈置開放式、跨學科的項目,要求學生合作並使用AI作為工具解決實際問題;(3)評估應注重過程和批判性思考:評分應關注在學生提出了哪些富有洞察力的問題?他們如何使用AI工具來尋找資訊?如何批判性地評估和整合AI產生的內容?藉此綜觀整體學習過程的效益。並且可以從中發現教育的重心變成培養AI所不擅長的生活經驗的體悟、倫理價值判斷、情境化理解與人性(如同理心)。

 

在此階段,教學環境的變動與同儕間的交流,能促使學生重新覺察自己在使用 AI 工具時的學習目標,並思考這些工具所能帶來的具體成果。這樣的求知動機也有助於教師進一步強化學生在GenAI應用中的學習任務。

 

()「學生AI素養的增進」

學習任務一:AI 賦能且合理運用

1.  強化學習效能:學生可以運用AI工具來強化學習的深度與廣度,使其成為強大的「個人化學習助理」,使其高效地處理海量資訊,在醫學等資訊爆炸的領域,AI能協助學生快速篩選、閱讀並總結大量的系統性文獻,大幅提升研究效率(Tozsin et al., 2024)

2.  激發學習應用之創意:AI可以作為學生的思考夥伴,協助發想研究主題、建構假設、探索不同角度的切入點,亦或在實務應用與操作過程中,幫助其突破傳統思維框架。

3.  輔助學術寫作:從草擬論文架構、潤飾文法語句到檢查引用格式,AI能有效降低寫作的技術性門檻,讓學生更專注於內容的思辨與創新,透過AI賦能,學生從被動的知識接收者,轉變為主動的知識建構。

 

學習任務二:辨識並反思“善用與濫用”

1.  核心能力的削弱:在擁抱AI帶來便利的同時也有雙面刃影響,若缺乏正確的引導,容易過度依賴將AI視為萬能的「答案生成器」,而非「思考輔助器」,可能導致學生批判性思維與深度閱讀能力的鈍化;習慣於AI流暢的文筆與架構,可能削弱學生獨立思考、組織論點與產出原創內容的能力。

2.  模糊的倫理界線:學生可能誤將AI生成的內容視為己出,忽略其背後複雜的著作權與智慧財產權議題;現在AI的使用讓抄襲與舞弊的界線變得模糊,若無明確規範,容易衍生錯誤的觀念與學術不誠信的行為。

 

GenAI已進入校園,被學生普遍使用做作業、寫報告,但多數學生卻缺乏整體規範的引導下自行摸索、正確認知尚未完全跟進,所以需要有學校的教務行政體系由上而下建構符合該校應用GenAI的指引。

 

()因應策略與設計調整

教育策略一:培養正確使用生成式人工智慧的素養-前導教學的必要性

在大學教育的「第1(First Mile)」就建立正確觀念,建議目標課程設計在新生訓練、大一必修、通識講座;將「學術倫理與AI素養」設為專門單元,如同宣導「反酒駕」或「學術誠信」一樣,成為新生的必備知識,使學生在正式展開學術旅程之前,就掌握與AI協作的正確倫理框架和有效方法,避免未來產生學術爭議並把握學術倫理規範。

 

教育策略二:建立明確的公告和指導方針

國內外各大學術機構已開始建立相關應用指南給學生參考,並透過嚴謹的數據隱私政策(如禁止輸入機密數據到公共工具)、推動有關GenAI素養及自我調整的教育,努力尋求創新與誠信之間的平衡,尚需注意的是人工智慧的發展、使用的合法性和倫理內容仍在不斷發展變化。這些全球頂尖的學術教育機構呈現的趨勢是:傾向於學生在課程中需負責任地應用GenAI,而非一概禁止使用,並圍繞以下幾個核心原則如下:

1. 確保數據安全與隱私性:首要的是將數據資料以資訊安全與風險做分類,以哈佛大學資訊安全風險分類(University Risk Classifications)為例,風險程度設計為紅綠燈的方式,從最低衝擊(Level 1)綠燈排序到最嚴重衝擊(Level 5)紅燈,就以校園公開平面圖為例,這屬於非敏感資訊、旨在公開發布,可不受限制地使用,對於大學的營運、聲譽、研究或財務沒有衝擊,該情形就屬於Level 1;而上課教材、學生手冊等被分類在Level 2屬於最小衝擊(Minimal impact),在學院或單位中內部分享,無敏感資訊等;若資料已經包含個人數據、績效評估或合約等,則已經屬於Level 3中等衝擊(Moderate impact)層級以上,要受額外保護或加密措施,且應不能隨意使用;個資如金融資訊、身分證號、可識別的醫療健康資訊,甚至基因序列等,就屬於level 4重大衝擊(Significant impact)的情形,不應該被上傳隨意應用;level 5嚴重衝擊(Severe impact),表示重要資料暴露後會對全校營運、研究、系統、聲譽、財務或個人生命安全造成嚴重影響(Harvard University, 2025a)

可透過網路存取的服務的主機軟體也有三級風險分類控管規定(Stanford University, 2025),基本上越高層級的風險分類,決定了要應用哪種保護措施(如加密、存取限制或保留期限)必須核示主管單位進行管理,學生必須先知道這些數據或資料的敏感性與隱私性,才不至於違反相關法律或法規要求。哈佛大學更有專業的科技辦公室協助審核軟體的安全隱私保護措施,並簽訂了重要的合約保護條款,讓資料安全這部分的風險評估得以被掌握(Harvard University, 2025b)

2. 重申學術誠信並提升資料透明度:許多大學都闡明學生和研究人員對其發表的內容必須負責,這也包括由AI生成的內容,且不可使用AI進行作弊或抄襲,經審查確定情節嚴重時,最重可能會撤銷行為人的學位(Massachusetts Institute of Technology, 2025);同時,學生需明確標示出GenAI生成哪些內容,應揭露內容過程中應用的具體方式,並使用適合的引用格式(APAMLAVancouver)在學術資料來源中,並確保內容正確性、遵守學術倫理要求下,不可違反著作權(Harvard University, 2025b; Stanford University, 2025; 高雄醫學大學, 2025; 國立中山大學, 2025; 國立台灣大學, 2025)

3. 提供GenAI可應用的範圍分級:教師則需在課程介紹時闡明應用GenAI的範圍及方式,依據課程主軸將逐步加深探討主題及實作演練,亦可加廣學習評量方式,不看重單一期中/期末評量,而是在學習過程中就反映學生學習累積成果及表現,予以綜合性的評量(國立台灣大學, 2025)

 

若以該項作業或報告需控制使用GenAI的程度從低至高,可以提出特定的評估任務或目的,(1)低度控制:用在整理資料,如文獻綜述、計算及統整摘要時;(2)中度控制:用在進階資料輸出,如專案報告、網站、電子履歷及開卷考試;(3)高度控制:技術應用程度比例高的如客觀結構式臨床測驗」(Objective structured clinical examination, OSCE)技術考試、任務彙報或臨床技能測驗等,就不適用GenAI,以免影響考試公平性。

 

教育策略三:架構人工智慧相關應用基礎及進修課程

在大學生涯中,學生們著重在專業學科學習之餘,建議跨領域拓展自己的多元學習觸角,並且可適度將教育科技相關的發展項目用作學習輔助工具,多方了解科技脈動及應用發展方向,同時應抱持著不盲從、不濫用的求知態度去增進個人能力。

 

臺灣針對人工智慧的教育課程,舉例教育部成立的「TAICA 臺灣大專院校人工智慧學程聯盟」,其目的在提供國內高等教育機構間之資源共享平台,該聯盟於113學年度成功整合臺灣大學等55所大專校院,能提升高效能的資源配置與教育公平性:透過創新的跨校學程機制,不僅統整並標準化優質的AI課程內容分作四大學分學程主軸,更建立起師資互助的平衡機制,由AI資源充裕的學校實質輔佐師資相對不足的夥伴學校,確保全國學子皆能享有高品質的AI學習機會;此外,跨界及跨校合作包含助教、課程指導服務及領域專家,提供學生從學術理論到業界應用的全方位支持、最大化了教學資源的效益,更能為臺灣培育許多未來AI核心人才(臺灣大專院校人工智慧學程聯盟, 2024)

 

學校各層級行政教學單位在投入培育AI科技人才的同時,可以利用跨校跨專業的方式,應用各校師資打造校系特色的人工智慧應用基礎與進修課程,讓學校師生更有興趣加入,且能培養自己專業外的AI應用方向,以期能增強學校競爭力與軟實力。

 

結語

人工智慧浪潮既是挑戰,也是教育轉型的重大契機,教育者應放下防堵心態,以開放且積極的態度,將GenAI視為強化能力的輔助工具,教師的核心策略是「引導代替防堵」:透過設計高層次邏輯思考的學習活動,培育學生具備創新力、批判性思維與AI共同協作的能力,同時,教育者需不斷精進專業知能,再度引領團隊建構「智慧培育智慧」的教育新生態,確保AI成為培育未來創新人才的關鍵力量。

 

參考文獻:

Baidoo-Anu, D., & Ansah, L. O. (2023). Education in the era of generative artificial intelligence (AI): Understanding the potential benefits of ChatGPT in promoting teaching and learning. Journal of AI, 7(1), 52–62.

Hallquist, E., Gupta, I., Montalbano, M., & Loukas, M. (2025). Applications of Artificial Intelligence in Medical Education: A Systematic Review. Cureus, 17(3), e79878. https://doi.org/10.7759/cureus.79878

Harvard University. (2025a). Classify Risk. https://privsec.harvard.edu/classify-risk

Harvard University. (2025b). Guidelines for the use of Generative AI tools at Harvard. https://www.huit.harvard.edu/ai/guidelines

Kaur, P., Kaushik, A., Sehrawat, K., Arya, K., & Singh, P. (2025). Is GenAI Really the Future of this World: Dark Side of GenAI. Available at SSRN 5190963.

Massachusetts Institute of Technology. (2025). Guidance for use of Generative AI tools. https://ist.mit.edu/ai-guidance

Rawashdeh, S. (2023). Artificial intelligence can do amazing things that humans can’t, but in many cases, we have no idea how AI systems make their decisions. UM-Dearborn Associate Professor Samir Rawashdeh explains why that’s a big deal. Retrieved September, 26 from https://umdearborn.edu/news/ais-mysterious-black-box-problem-explained

Stanford University. (2025). Responsible AI at Stanford. https://uit.stanford.edu/security/responsibleai

Tozsin, A., Ucmak, H., Soyturk, S., Aydin, A., Gozen, A. S., Fahim, M. A., Güven, S., & Ahmed, K. (2024). The Role of Artificial Intelligence in Medical Education: A Systematic Review. Surg Innov, 31(4), 415–423. https://doi.org/10.1177/15533506241248239

行政院. (2025). 政院通過「人工智慧基本法」草案 建構AI發展與應用良善環境 打造臺灣成為AI人工智慧島. Retrieved 9.2 from https://www.ey.gov.tw/Page/9277F759E41CCD91/5d673d1e-f418-47dc-ab35-a06600f77f07

高雄醫學大學. (2025). AI學術倫理. https://olis.kmu.edu.tw/index.php/zh-tw/%E7%A0%94%E7%A9%B6%E8%B3%87%E6%BA%90/%E6%8E%A2%E7%B4%A2ai/ai%E5%AD%B8%E7%BF%92%E8%B3%87%E6%BA%90-2

國立中山大學. (2025). 國立中山大學生成式AI工具使用參照指引. https://oaa.nsysu.edu.tw/p/406-1003-313202,r1365.php?Lang=zh-tw

國立台灣大學. (2025). 臺大針對生成式 AI 工具之教學因應措施. https://www.dlc.ntu.edu.tw/ai-tools/

臺灣大專院校人工智慧學程聯盟, T. (2024). TAICA 臺灣大專院校人工智慧學程聯盟計畫學分學程. https://taicatw.net/

 

作者簡介:

盧鴻興院長,目前擔任高雄醫學大學人工智慧生醫研究院院長、高雄醫學大學附設中和紀念醫院副院長、高雄醫學大學及國立陽明交通大學特聘教授、美國康乃爾大學統計與資料科學系兼任教授。研究專長:人工智慧、統計科學、資料科學、影像科學、生物資訊與科學計算。
https://baia.kmu.edu.tw/index.php/zh-tw/

 

黃怡靜,目前擔任高雄醫學大學人工智慧生醫研究院博士後研究員 ,主要執行「智慧雨林產業創生人才育成計畫」、「前瞻重點研究計畫」、與醫院各機構間合作研究計畫等,研究專長:智慧醫療軟體開發及護理資訊之研究。

https://baia.kmu.edu.tw/index.php/zh-tw/