AI與性別論壇
一、活動資訊
1.活動時間:
|
108年10月4日上午9時20分至12時30分
|
2.活動地點:
|
國立臺灣大學社會科學院梁國樹國際會議廳
|
3.指導單位:
|
科技部人文及社會科學研究發展司
|
4.主辦單位:
|
科技部人文社會科學研究中心
國立臺灣大學
國立臺灣大學社會科學院
|
5.引 言 人:
|
國立臺灣大學社會學系教授吳嘉苓
|
6.主 持 人:
|
國立清華大學通識教育中心教授林文源
國立交通大學電機工程學系教授楊谷洋
|
7.主 講 人:
|
國立中正大學哲學系暨研究所教授吳秀瑾
國立政治大學傳播學院副教授方念萱
高雄醫學大學性別研究所助理教授余貞誼
國立臺灣大學語言學研究所副教授兼任所長謝舒凱
國立臺灣大學心理學系暨研究所助理教授黃從仁
國立清華大學資訊工程學系副教授陳宜欣
|
二、活動目的
AI帶來重要的科技突破與社會改革,但是也引發新的隱憂,包括來自於性別研究的關切。近年來已有不少研究指出,社會既存的各類偏見,可能藉由資料選擇、編碼、標註,乃至於演算法的設計與建置,隱身於機器學習機制,複製甚或強化性別偏見。這些影響包括聘僱篩選、醫療診斷治療、以及大眾所依賴的搜尋引擎等重要的場域。如何將性別研究的重要理論與觀點與AI的運作結合,促使AI朝向性別平等的發展方向,成為人文社會研究者必須積極參與的課題。本次論壇探討AI與性別的相互影響,邀請人文社會學者與AI科技實作者共同研討,共同研擬如何開發納入性別觀點的AI設計。
三、活動規劃
論壇一開始由本中心曾嬿芬主任開場,接著規劃引言場次為AI與性別論壇暖身。論壇共有2個section,主題分別為「AI─性別如何相互重組」及「AI渴望性別的一百種方法」,2個section皆安排由主持人介紹主講人之簡歷後,請主講人分別演講。
四、活動紀實(由中心博士級研究人員張澄清記錄)
此值AI躍升為科技發展的重要前沿之際,科技部人文社會科學研究中心(以下簡稱人社中心)亦將「AI在人文社會科學的新應用」設定為前瞻整合議題之一。但陸續有研究指出,社會既存的各式偏見,可能藉由資料選擇、編碼、標註,乃至於演算法的設計與建置,隱身於機器學習機制,複製甚或強化各種偏見,諸如影響入學分數計算、人員聘僱篩選、銀行信用評比,甚至是網路資料搜尋的結果。故人社中心規劃此次「AI與性別」論壇,召喚人文社會學者與AI科技實作者,共同研擬具性別觀點的AI設計。
論壇分為三個部分,首先邀請國立臺灣大學社會學系吳嘉苓教授以「AI與性別:女性主義STS的關切與實踐」為題進行引言。接著是分別以「AI—性別如何相互重組」及「AI渴望性別的一百種方法」為主軸,各邀集三位講者的兩場專題討論。吳教授在引言時指出,當前對AI發展的論辯與STS看待科技與社會的觀點相符,有「科技崇拜」,但也有「科技恐懼」,若借用STS的觀點,則AI乃是不斷演變的一組社會技術網絡,其優劣成敗涉及各種權力的角逐。相關討論可由「AI的知識生產」、「AI的使用與政策藍圖」,以及「AI的再現」等三個層面進行觀察。
關於AI的知識生產,應重視訓練資料的代表性,以及早期文本所隱含的性別偏見,因為學習演算法會針對此群體進行優化以提升整體準確度,則扭曲的樣本資料會因學習迴圈而放大偏誤。所幸在性別化創新的過程中,有許多方法可以去除偏見,例如選擇學習資料庫時能試著理解建置過程並揭露資料特性及可能缺失、在AI設計的過程中引入公平性審查或建立內部除偏見機制、期盼各界共同面對AI造成不平等,或是包容多元的知識理解方式,避免以強調控制及效率的AI為唯一的價值標準。AI的使用與政策藍圖,則是應該注意有些AI運用政策可能同時包含程序不透明及工程師技術的黑箱,佯裝客觀公正,但實際卻有排序或操作,若運用在求職、醫療或犯罪領域,則結果將不被信賴。此外,自動化科技輔助下的工作標準提高了,工作程序也改變了,連帶促使整體科技系統的調整,對人們最直接的威脅將是工作機會遭AI機器人取代,但對各類職業或群體的影響不一。換言之,我們應該進一步思考,是否應建立某些政策主張,以確保全民都可共享AI科技發展的果實。至於AI的再現,則因流行文化多半複製現存偏見,且在設計AI機器人時不免需要設定一個生理性別,如何決定其實是反映一種文化生殖(cultural genital)。因此開始有人研發無性別的聲音,鼓勵女性或少數族裔人才參與科技研發,以改善現有女性AI研發人才比例偏低且仍侷限在教育或醫療等領域的不均現象。
聚焦在「AI—性別如何相互重組」專題討論,國立中正大學哲學系暨研究所吳秀瑾教授提醒我們由邏輯與數學運算公式組合成的AI機器學習演算法,其實不如我們想像的公正。吳教授觀察到國內科技產業的女性從業人口比例偏低,建議或可由提升女性工程師或科學家的比例著手,具體作法是進行高中數學教材與教法的翻修,把簡潔生澀的公式定理以平民化的方式表述,類似數學的白話文運動。當女性普遍具有足夠的數學能力,可以稽核AI機器學習演算法,才能消彌可能隱身在演算法背後的性別偏見。國立政治大學傳播學院方念萱副教授談的是大眾媒介裡反覆出現的女性機器人遐想症(fembot fantasy),但會受學界重視其實是與加拿大多倫多恐攻事件有關(Toronto van attack ),而其中的攻擊者自稱是incel(非自願獨身者),並在網路中發起了非自願獨身者的革命(incel revolution)。有學者把當成是權利,將性重分配對比財富重分配;但也有學者認為性不是應得權利。方教授認為,關注性的重分配相關討論,可供我們思考AI與性,AI與性別的關係。高雄醫學大學性別研究所余貞誼助理教授剖析演算法的運作機制(Algorithm = Logic + Control),試圖達成AI—性別的重組。而偏見在控制的環節中,透過測量指標選擇、資料蒐集與採用、資料清理及數據詮釋等程序滲入演算迴圈,AI最終學會了人們的偏見。因此建議我們應該要打開工程師的技術黑箱,避免資訊規模、流向、處理和決策過程被私有化。
在「AI渴望性別的一百種方法」的討論主軸中,國立臺灣大學語言所謝舒凱副教授從語言的角度看性別偏見。若要解決自然語言處理可能產生的偏見,除了選擇較不具偏見、較平衡,或刻意製造沒有偏見的語料讓機器學習;在模型端則運用技術刻意懲罰具偏見的詞語,甚至是讓模型透明化並具有可解釋性。但這些方法並沒有真正解決偏見的問題。因為標籤與連結的計算本質是效能優化而不是價值多元,且監督式學習需要標準答案,但是一個理想的、沒有偏見的社會應該是沒有標準答案的。謝教授呼籲在發展技術時,應把社會責任當成首要目標,另外就是AI也需要多元發展,讓不為商業服務的AI成為可能。國立臺灣大學心理學系暨研究所黃從仁助理教授則以一個風趣的方式探討機器學習的偏見,鎖定AI如何物化女性為主題,嘗試打開人們如何以照片評定顏值的黑盒子。完成訓練與測試後,黃教授運用修圖軟體,將自己的照片修得更對稱,並且把臉圖白(真人不可能給高分)。測試結果機器評定的顏值分數大幅提升,似乎在反諷機器評審容易愚弄,以AI機器做為選美評審仍有許多需要學習的地方。最後,國立清華大學資訊工程學系陳宜欣副教授則是探討如何將性別因素納入後,可否幫助AI機器學習設計與創新。透過讓機器以姓名猜測性別,並在分析情緒與精神疾病時,刻意凸顯性別因素並加以區分,成功提升了機器辨識的正確率。也就是說,在某些特定的小眾案例,進一步將資料以性別來區分,較少量的資料反而能訓練出較高正確率的神經網絡。因此,與其擔心AI是否有歧視,或可換個角度,有時不應彌平性別差異,而是加以正視,利用這個差異來達成對人類社會的瞭解。
五、活動回饋
本次活動含現場報名共計有112位與會者,共回收59份會後問卷,回收率約為53%,以下針對與會者對此活動之滿意度、消息來源、參加動機以及建議做統計描述:
【滿意度】
就整體滿意度而言,本場活動觀眾大部分給予正面評價,問卷結果顯示對活動整體、內容安排、活動地點及設備安排等,感到滿意之比例皆超過八成,對於時間安排則有67%的滿意度,與會者皆表示未來期待參加類似活動。
【消息來源】
在本次問卷結果中,大部分與會者由本中心電子報得知活動訊息,其次為他人轉知及其他機構或通訊消息。
【參與動機】
多數與會者表示本次活動主題相當吸引人,其次,工作/研究上相關的需求亦是參與本次活動的動機。
【建議】
多數與會者表示活動內容豐富、議題新穎、收穫良多,亦表達本次活動時間安排較緊湊,希望日後相關活動可安排整日、增加休息及問答交流的時間。
六、活動海報及議程


七、活動照片

引言人演講

主講人演講

主講人演講

主講人演講