時間:2021年11月19日(五)13:00-17:00 | 報名時間:2021/10/20 - 2021/11/12 | |
地點: 國立清華大學旺宏館二樓R245周懷樸講堂(新竹市東區光復路二段101號) |
聯絡人資訊:
|
|
主辦單位: | 合作單位: 國立清華大學人文社會AI應用與發展研究中心、臺灣人工智慧行動網、人工智慧普適研究中心、東吳大學人文社會學院人工智慧應用研究中心、前沿理論及計算研究中心、國立臺北大學人文社會科學異質跨域研究室(X-Lab)、國立臺北大學大數據與智慧城市研究中心、國立政治大學創新國際學院 |
人工智能(Artificial Intelligence, AI)是二十一世紀備受矚目的重要科技。面對AI已經啟動的各項改變,跨領域對話與合作勢在必行。人文社會科學領域要如何參與?如何讓AI更為趨近人文社會的理念?人社與AI領域的有志者要如何合作呢?
為此,科技部人文社會研究中心委託國立清華大學人文社會AI應用與發展研究中心,辦理本研習營推動交流跨領域合作經驗,本研習營邀請相關學者介紹反省AI資料政治性、稅賦與社群媒體風險訊息之AI發展經驗,以及人文社會AI線上導論之對話與回饋等主題,誠摯邀請有志者一同參與。本活動亦搭配事前研習「人文社會AI導論」系列課程,歡迎事先研習並於活動時交流。
影片連結:https://reurl.cc/q1kzrE
簡報檔下載:https://reurl.cc/ARdnjj
時間 |
活動 |
12:30~13:00 |
報到 |
13:00~13:25 |
貴賓致詞與活動簡介 主持人:林文源(國立清華大學通識教育中心教授) |
13:25~14:15 |
主持人:王一奇(國立中正大學哲學系暨研究所教授) 專題演講:用數據實踐性別正義——數據計劃的倫理分析 |
14:15~14:30 |
中場休息 |
14:30~15:20 |
主持人:杜文苓(科技部人文司「科技、社會與傳播」召集人、國立政治大學創新國際學院院長) 專題演講:查審流程自動化機器人計畫案跨領域合作經驗分享 |
15:20~16:10 |
主持人:陶振超(國立陽明交通大學傳播與科技學系教授) 專題演講:社群媒體下的求助訊號_自傷個案之辨識 |
16:10~16:50 |
主持人:連賢明(國立政治大學財政學系教授) 專題演講:人文社會AI導論課程的設計理念與應用方式 |
16:50~17:00 |
閉幕 |
檔案下載
PDF / 519KB | 人文社會科學與AI:跨領域合作研習營議程.pdf | 下載 |
活動地點:國立清華大學旺宏館二樓R245周懷樸講堂(新竹市東區光復路二段101號)
國道客運
可搭乘下列客運前往清華大學:
台北-新竹:亞聯、新竹三重、國光、飛狗、豪泰、統聯、阿囉哈。
新竹-台中:新竹台中客運聯營。
下交流道後於清華大學站下車,詳細站名資訊請洽詢各客運公司。
台鐵
於台鐵新竹站下車後,至民族路(SOGO百貨側、光南斜對面)客運站搭乘【新竹客運1路】或【新竹客運2路】,至清華大學站下車。
高鐵
於高鐵新竹站下車後,至高鐵快捷公車搭乘處,搭乘【182 高鐵新竹站-北大橋】,至清華大學站下車。
自行開車
1.自行開車者可於清大校園內停車位停放車輛。
2.平日第一小時內收費30元(一小時內同門進出者,免收停車費),爾後每半小時收費15元,未滿半小時以半小時計,每日至多以新台幣300元計收。
3.事先提供車牌號碼者,可享停車優惠。
詳細交通資訊,請參考清大交通指引:
http://admission.nthu.edu.tw/pagemix.aspx?id=115&t=Transportation
一、活動目的
本次國立清華大學人文社會AI團隊承辦人文社會AI研習營為第三次,此外,研習營之規劃適逢科技部人文司也在推動公共化AI之增能方案。此增能方案是由人文司之社會、法律、教育、人類、心裡、哲學、區域、藝術、科技社會與傳播九大學門聯合支持,旨在推動AI之公共化理念與落實相關資料標註之平台建置與推廣。
此外,接續先前經驗,我們認為除了規劃一次性的研習營之外,因此,結合兩項推動之量能,我們請共同主持人王道維老師拍攝一系列十集之「人文社會AI導論」線上課程。這系列課程一上線即受到相當關注,這顯示有相當廣泛的學科都認為AI推動與發展有其意義與重要性。因此,我們認為如何介紹已經具有一定起步動能與推動經驗之資料庫與需求面,以提供更多領域之學者與同學想像AI的願景相當重要。因此,本次研習營之成果也更為豐富與具有長遠影響。
二、活動規劃
因此,本次研習營之規劃方向也與合作面向。因為疫情緣故,為避免異動造成困擾,因此採現場與直播方式公共化AI將於2020年一月舉行的公共化AI工作坊相對呼應,此次研習營跨領域同步進行。
本次研習營主要規劃四個場次分別為用數據實踐性別正義——數據計劃的倫理分析、查審流程自動化機器人計畫案跨領域合作經驗分享、社群媒體下的求助訊號_自傷個案之辨識及人文社會AI導論課程的設計理念與應用方式,邀請六位具相關經驗的學者團隊,分享標註相關資料的經驗與方法,由國立清華大學林文源教授召集,高雄醫學大學性別研究所余貞誼助理教授、淡江大學會計學系韓幸紋教授、國立政治大學應用數學系曾正男副教授、國立清華大學教育心理與諮商學系李昆樺助理教授、國立清華大學學習科學與科技研究所區國良副教授、國立清華大學物理系王道維教授,希望能藉此促進國內人社學者對於AI發展與應用有更完整深入的瞭解,並協助全國相關領域學者將這些寶貴經驗作更充分的利用。
三、「人文社會AI導論」線上課程
課程簡介:近十年來人工智能(Artificial Intelligence,AI)對社會影響日漸深入,既有普遍由技術與資本化興趣所推動的AI發展,對社會公共性影響值得關注。人文社會如何面對AI的發展趨勢呢?而關注社會公共性與普遍價值的人文社會領域如何介入這些變局呢?相較於資本化與技術進展的AI趨勢,AI是否有公共化的可能呢?人文社會領域又能在其中扮演哪些角色呢?甚至,人文社會是否有機會發展不同的AI展望呢?這些都是面對AI趨勢下的人文社會挑戰。
為了促進人文社會領域加入更為多元的AI發展,本中心委託國立清華大學人文社會AI應用與研究發展中心拍攝「人文社會AI導論」系列影片。本系列影片由王道維教授主講,共有十集,將循序漸進由AI發展歷史、資料與技術面向,以及各種人文社會相關範例,進而討論人文社會推動公共化AI的展望。影片已於科技部人文社會科學研究中心YouTube頻道上架,歡迎各界多多利用與分享。
人文社會AI導論第一集:AI的發展歷史
人文社會AI導論第二集:AI應用的資料類型
人文社會AI導論第三集:AI應用的目標功能
人文社會AI導論第四集:關於AI的是與不是
人文社會AI導論第五集:機器學習簡介
人文社會AI導論第六集:深度學習簡介
人文社會AI導論第七集:自然語言處理簡介
人文社會AI導論第八集:AI系統的建置
人文社會AI導論第九集:文字標註與偏見處理
人文社會AI導論第十集:AI公共化的願景
從2021年十一月上線以來,目前已有約4千次點閱,請見人社中心網頁http://www.hss.ntu.edu.tw/model.aspx?no=700
四、活動資訊
本次規劃之研習營議程與海報如下:
時間 |
活動 |
12:30~13:00 |
報到 |
13:00~13:25 |
貴賓致詞與活動簡介 |
13:25~14:15 |
講題:用數據實踐性別正義——數據計劃的倫理分析 主持:王一奇 國立中正大學哲學系暨研究所教授 科技部人文司「哲學學門」召集人 主講:余貞誼 高雄醫學大學性別研究所助理教授 |
14:15~14:30 |
中場休息 |
14:30~15:20 |
講題:查審流程自動化機器人計畫案跨領域合作經驗分享 主持:杜文苓 科技部人文司「科技、社會與傳播」召集人 國立政治大學創新國際學院院長 主講:韓幸紋 淡江大學會計學系教授 曾正男 國立政治大學應用數學系副教授 |
15:20~16:10 |
講題:社群媒體下的求助訊號_自傷個案之辨識 主持:陶振超 國立陽明交通大學傳播與科技學系教授 主講:李昆樺 國立清華大學教育心理與諮商學系助理教授 區國良 國立清華大學學習科學與科技研究所副教授 |
16:10~16:50 |
講題:人文社會AI導論課程的設計理念與應用方式 主持:連賢明 國立政治大學財政學系教授 主講:王道維 國立清華大學物理系教授 |
16:50~17:00 |
閉幕 |
五、活動紀實(由國立清華大學社會學研究所研究生邱冠瑜記錄)
本場次對談由王道維教授開場致詞,王教授提到AI(Artificial Intelligence)對我們生活帶來許多改變,影響到人們的生活甚廣,因此在AI的運用上需要有人文方面的思考,加深AI與人之間的聯繫和合作,王教授也提到在AI的應用上需要更多跨領域的研究來加深我們對AI在不同面向的了解,也寄望此次的研習營能夠為現場的來賓帶來啟發性的思考。
(一)用數據實現性別正義,數據計畫的倫理分析
講者余貞誼老師首先談到數據計畫,講者先提出兩個問題讓我們思考,該如何理解數據計畫呢?數據計畫與客觀性以及權力之間的關係又是如何呢?
要討論何謂數據計畫可以從三個觀點出發:一、本體論,把事物轉成後設資料的形式,使得資料的意義轉變成能夠依據目的來運算處理的邏輯判準。二、認識論,以演算法來梳理肉眼未能察覺的模式和結構。三、方法論,以數學普遍性為基礎,訴諸機械客觀性(mechanical objectivity),來過濾人為偏見與詮釋侷限,成就對「客觀」、「嚴謹」知識的渴望。
講到數據的客觀與嚴謹,講者進一步說明數據計畫與客觀性,究竟演算法有沒有偏見呢?講者引述了數據科學家Julien Lauret的看法「演算法沒有能動性、沒有意識、沒有自主權、沒有道德感。他們只做設計者要求他們做的事」,可是,當人的設計者去設計演算法時,就把人的目標、以及人的資源、人的選擇一起放進了整個數據計畫中,於此同時,偏見也就滲入了數據計畫中。當數據計畫事實上是具有偏見時,裡頭就蘊含著權力不平等的關係,講者引述了D'Ignazio & Klein的主張「數據就是權力(data is power)」,指出若我們沒有注意到數據計畫的政治性,那麼數據計畫就有可能會幫助既有的優勢階級鞏固權力基礎,而加深對弱勢族群之間的不平等。作者舉例,在美國有以公共健康服務數據集來評估哪些家庭的小孩容易受虐的數據計畫,但是富有階級通常使用的是私人醫療,因此公共健康服務系統中收到的數據經常大多來自於勞動階級,這就導致了貧窮父母被過度取樣,進而高估貧窮小孩遭遇家暴的風險。這樣的模型混淆了parenting while poor 與poor parenting兩者的意義,並鞏固了既有的階層優勢,促成了惡性循環迴圈。總結對數據計畫的理解,講者認為數據計畫涉及的是一種科技—文化政治(techno-cultural politics),而我們應該要對數據計畫採取批判性的技術實作立場,去探究符碼如何運作,包括它的過程、行動者、功能、目標、及其力量和侷限,藉由理解軟體能夠運作、影響的程度,來重新思考它的展望與方向。
理解數據計畫的性質後,從人文社會的角度看待數據計畫又會是什麼樣子呢?講者提出Data for good的概念,這是AI4people科學委員會極力推動的主張。他們認為有4+1個主張是使用演算法重要的倫理概念,包括行善、不傷害、自主、正義,及可解釋性,其中可解釋性又包含可理解與可問責。接下來作者進入數據計畫案例的探討。
第一,我們希望數據計畫是照妖鏡還是過濾器?作者認為透過數據計畫我們可以看見以往社會中被掩蓋的性別不正義,像是1969~2017年間曼布克獎文學得獎作品中,得獎作品對於特定性別角色的描寫都有特定的偏好(男生醫生、警察,女性護士、老師),此時的數據計劃就是照妖鏡;另外一個案例就是第二屆性別暴力防治駭客松提出的「性別暴力解碼計畫」,其中一個得獎團隊設計「Poly you」這款以性別友善為出發點的網站套件,可以將網路中帶有性別歧視性別暴力的訊息翻譯或是取代,置換為較中性的詞彙,結合社群的力量傳播,可以在無形中將性別歧視降低,此時的數據計劃就是過濾器。
第二,數據計畫是保護主義還是缺憾敘事?作者舉例數據計畫的保護主義案例,在印度頻繁的性犯罪熱點,警方加裝AI監視器,若偵測到女性的表情變化且AI判定為性騷擾,就會向最近的警局通報,讓員警能夠及時地抵達現場處理。儘管現實上能夠降低犯罪率,但很難可以樂觀的說透過這樣的數據計畫可以看到權力與壓迫概念產生改變的潛能,因為在這個數據計畫中,女性被設定為潛在受害者,把女性固著為需要保護的對象,因而形成了缺陷敘事,反而可能會加深在男性霸權中被宰制的關係。
結論,講者認為演算法在使用不當的情況會造成社會的不正義,所以要使其更易於管理也更公平,就是確保問題形成與方案制定的過程中,盡可能的擴大參與群體。所以一個好的數據計畫應當具備透明性,讓大家可以看進數據的黑箱,朝向充分知情理解的過渡階段;且數據工作者應具有反身性,數據工作人員需要思考自己所佔的位置帶有那些局部性、又承擔了什麼樣的責任;最後,我們需要制定出問責機制,在事情發生後可以找到應該由誰來負責,讓數據計畫的問題可以從消極監督到積極改善。講者最後也提到,數據計畫將會套用在人的身上,一定要注意數據的脈絡是如何被抽取的,這樣才會盡可能公平的對待每一個群體。
(二)查審流程自動化機器人計畫案跨領域合作經驗分享
此場次首先由陳幸紋老師分享她與稅捐機關的合作經驗開始,講者談到台灣社會的氛圍在稅務層面上傾向以「節省」為主要考量,從個人到企業都希望能盡量少繳稅,也因此稅務人員的工作大多在處理繳稅者是否非法逃稅,但是隨著企業經營型態的多元化,跨國經營增多,在台灣的稅務人員業務複雜繁重,所以有了透過大數據及AI來協助稅務人員查審的計畫。講者分享的是自身在營所稅的查審經驗,其中查審的方法又分為兩種、電腦選案以及人工選案,電腦選案的過程會列出幾項特定的條件,之後再資料庫裡面隨機選案;人工選案則是依賴稅務員人工設定條件(比對相關的稅務資料),但是相當耗時且常常徒勞無功,最有效的還是以檢舉案件為主。
簡介完計畫的內容後,講者接續分享在計畫執行中有關AI的應用部分,講者認為AI在稅務審查要能成功應用仰賴需求方和工作團隊,需求方須明確提供需求內容,資料的性質要夠豐富,因為稅務人員在蒐集資料時受到相當大限制,常常會遇到資料上橫跨部門而被以資料保護的理由拒絕,需要分析時會出現問題;工作團隊內因為觸及跨領域合作,在合作的初期需要密集溝通,讓彼此在不同領域的經驗可以相互學習,而不被彼此的專業領域內的知識限制。
接著輪到處理數學模型和AI設計的曾正男老師分享,講者提到當數據計畫碰觸到「人」就會變得複雜,這是理組的工作者必須要注意的部分,而文組的工作者必須要理解AI並不是萬能,不能對AI和大數據有錯誤的想像,像是AI什麼都能做、資料夠大就會有好結果、設計者能夠解釋AI分析的細節等。講者提到他在與公部門的合作時都會遇到長官要求AI能解決許多複雜的問題,但AI的運作邏輯並不是如此,AI的判準是機率問題,當事件的機率變化太大時,AI就不會有好的分析結果,以稅務查審的案件為例,因為資料的缺漏相當複雜,以至於AI在學習的時候會不夠完整,還需要人工二次把資料標籤化,而且就算設計出很精準的模型,得到完整的結果,AI的設計者也不能解釋「為什麼AI這麼說」,以上是講者首要澄清大家對AI的迷思。
在實務工作的部分,講者提到在資料的蒐集過程會遇到行政部門彼此的矛盾,當中包含處理不同部門在保護自己的資料時會對需求方產生抗拒心態,並非只要負責的部門申請就能要到想要的資料,過程中常常在行政程序上耗時許久,甚至講者也有遇過對方給的資料不正確,或是無法理解需求方的計畫目標,常常會遇到資料無法準時送到code的設計方,又資料在學習input & output的過程也要一段時間,所以會出現誤判計畫完成期限的差錯。講者提到他在面對這些問題時,都必須先想像這些資料大概的圖像會是如何,先把code寫得差不多,等到資料到手上再做微幅的修改;又公部門之間常常會有利益衝突,我們的成功可能是別人的失敗(講者用語),所以除了AI技術的問題上,在人際關係的協調和溝通也是理組的工作夥伴需要特別留心的部分。
(三)社群媒體下的求助訊號
此場次首先是李昆樺教授的分享,講者是臨床心理學的背景,在首次嘗試AI在學生身心健康和諮商輔導的應用,此次的合作案是在網路社群媒體DCARD上找尋自殺個案的高風險族群。團隊先在DCARD(1)文章中抓取資料,試圖去找尋文章內的自殺風險因子,講者的工作是負責在團隊內判別那些網路文章的字詞或語句屬於「危險的」(亦即會產生自傷或自殺),之後去分類危機程度(輕、中、高)、事件程度(人際、學校、家庭、個人)、是否需要藥物或心理治療,接著交給AI的專家去建構運算模型;講者提到在DCARD上的文章常常有需多並不是有效的內容,導致在標籤資料的過程需要花較多時間,還有在專業領域中的用詞不同導致理解彼此意思的落差,但在跨領域的好處就是AI的確能增加效率,以往用人工方式看文章效率低落,且容易忽略一些文章的細節,但講者認為隨著資料能夠越來越豐富,就能夠讓這項技術更加成熟,對臨床心理在判別有風險的個案上會有更佳實質的幫助。
接著輪到區國良教授分享過去以文字探勘分析小說的經驗和觀察,講者提到為了要理解DCARD上的用字用語,講者先設計AI去學習DCARD用戶較常閱讀的小說,以LIWC(2)情緒辭典進行詞性分析,每個詞性具有60個詞性維度,接著讓AI去分析文章內容的情緒正反面,進而把文章複雜的空間簡化成單維的正反兩面,但講者發現這樣做會有盲點,單單使用字詞是不夠的,還必須加入語句分析。在實際進入到DCARD分析時,團隊從55989篇文章利用情緒字典排序,取出負面分數最高的2480篇文章作為訓練集,再邀請專家為文章內的句子標註八個類別,分成四個等級A(有自傷行為的動作)、B(高度危機可能)、C(中度危機可能)、0(低度危機可能),即便讓AI從詞學習到句,還是有句性上的盲點,例如:我不想和「好了」、這樣就「好了」,以上兩句話AI就不能準確的判別出情緒的差別。講者也提到,使用演算法上的不同也會對結果造成區別,講者舉例用NB、SVM、DR分析同一句話就會有差別。
實務上的困難就是特徵數量不足,特徵不一定具有代表性、危機個案程度比例不平均,講者舉例我們平常在路上看到人的背影也許可以從髮型、身材、穿著去猜測性別,但情緒就無法,而且猜測性別也有錯誤的可能,像是留長髮的男生;所以使用AI在搜尋文章上,若是機器學習到的特徵不足,也容易出現把有自殺傾向的個案忽略的情況。
在結論中講者提到,現在專家標註的多是負向與自殺憂鬱有關的文字,但兩者之間還是有些微的差異,所以計畫的目的是為了要從大量的資料中,快速篩選可能有自傷危機的個案,語意的區分倒不是計畫的目的,而是讓AI能夠快速分類語意屬於正或負來到快速分類的目的,講者也提到現階段這樣二分類的判斷可以有97%的準確度,可以有效地將網路上的負向訊息準確挑出,在未來希望能研究如何使用AI挑出正向、負向的文字來預測整篇文章的危機程度,並發展類似二分類模型來更準確找出負向的標籤,協助心理方面在大數據的分析研究。
(四)人文社會AI導論課程的設計理念與應用方式
最後一個場次的講者是王道維教授,講者先與大家分享他跨界到AI的經驗,從天文研究的超新星和出生恆星開始接觸到大數據的應用,接著與腦科學的教授們一起使用大腦資料庫解碼果蠅大腦的訊息傳遞,後來走道多體物理與量子電腦的物理研究,還有是親權判決預測的司法與AI大數據研究,以及前面演講的網路自我傷害文字分析,最後是推動AI的公共化。講者冀望以自身的經歷鼓勵大家多多跨出自身的專業領域,多了解其他領域的專家的研究,如此可以找到拓展自身專業的路徑,影響的層面也能更廣泛。
之所以會開始推動AI導論課程,也是因為在AI的公共化上試圖讓更多非理工科系的學生能夠了解、使用AI,因為在大多數的具有價值的資料存在於政府與公共事業部門,所以這些資料的整理和評估還是需要仰賴人文社會學者的專業,而且AI跳脫以往科技發展是以結構性的知識為基礎,在非結構化資料的處理能力(特別是文字、圖像)部分,更需要人文社會學者以新的思維來投入研究當中,因為AI在學習資料的過程是一種統計性的結果,不是必然的物理定律,少見的個案或是結構性的問題機戶沒有辦法處理,所以在AI的使用,如何規定使用範圍、最終的權責歸屬、賦予其價值與意義,都是人文社會學者和理工學者必須一起面對、一起思考的。(王道維、林昀嫻,2020)
講者接著介紹AI導論課程的設計理念,設計課程的是為了讓學生不盲目引用AI的新聞,多了解AI的基礎的技術面向,對AI當前的發展提出正確的問題,甚或利用手邊的資料來做AI應用,但並非需要自已親自來寫程式做AI計算;課程的內容共有10種(3),筆者將內容與課程架構一併呈現。(來源:講者ppt)
課程的應用可以依據個人的興趣隨意挑選主題影片,或僅看投影片(4),研究增能的部分對於有興趣從事AI相關的人文社會學者,可以搭配閱讀相關已發表的論文或書籍,更進一步可以與技術團隊討論可能使用的AI技術與其資料型態、標註(5)方式、應用場域,評估研究所需要的配套資源。
在結語部分,講者提到AI發展日新月異,對社會各個層面影響甚深,設計AI導論課程就是希望能幫助人文社會的學生更了解相關的技術,以便做更好的掌握與分析,如此才不至於讓AI的出現造成不良的影響。
(1)Dcard(狄卡),是台灣的社群網路服務的網站,目前已開放非大學生一般民眾憑證件註冊。(資料來源:維基百科)
(2)Linguistic Inquiry and Word Count,語文特性分析的電腦工具。
(3)相關影片可上youtube搜尋「科技部人文社會科學研究中心」,共有十集將循序漸進由AI發展歷史、資料與技術面向,以及各種人文社會相關範例,進而討論人文社會推動公共化AI的展望。
(4)投影片可至:https://drive.google.com/drive/folders/1bh3jtXI1ZXmxaJlUuOPcfbDCTH8pUttt下載。
(5)標註是將原始資料做結構化的整理,使之能夠在AI應用時產生有意義的連結與關係,對AI應用成效影響很大。
六、活動照片
用數據實踐性別正義——數據計劃的倫理分析(余貞誼助理教授)
用數據實踐性別正義——數據計劃的倫理分析QA時間(左起:與會者、余貞誼助理教授)
查審流程自動化機器人計畫案跨領域合作經驗分享(韓幸紋教授)
查審流程自動化機器人計畫案跨領域合作經驗分享(曾正男教授)
查審流程自動化機器人計畫案跨領域合作經驗分享QA時間 (左起:韓幸紋教授、與會者)
查審流程自動化機器人計畫案跨領域合作經驗分享QA時間(左起:曾正男教授、與會者)
社群媒體下的求助訊號_自傷個案之辨識(李昆樺教授助理)
社群媒體下的求助訊號_自傷個案之辨識(區國良副教授)
社群媒體下的求助訊號_自傷個案之辨識QA時間
人文社會AI導論課程的設計理念與應用方式(王道維教授)
人文社會AI導論課程的設計理念與應用方式QA時間(左起:王道維教授、與會者)
人文社會AI導論課程的設計理念與應用方式
社群媒體下的求助訊號:自傷個案之辨識
返回列表 |
計畫補助單位
100029 臺北市中正區羅斯福路一段97號9樓 人文社會科學研究中心
+886-2-23511099 / +886-2-23511085
+886-2-33668821 (臺大校內可撥68821)
+886-2-23511090
建議瀏覽螢幕解析度:1024 x 768以上 | 建議使用瀏覽器:IE11以上版本 / Google Chrome / Firefox
Copyright 2022 人文社會科學研究中心(ntucahss@ntu.edu.tw)