AI領域的女性:Allison Cohen談負責任的AI項目建設

TechCrunch一直在發表一系列專訪,集中討論那些為AI革命做出貢獻的傑出女性學者和其他人,為這些以人工智慧為中心的女性提供她們應得的關注和肯定。隨著AI的持續增長,我們將在全年內發表這些文章,突出往往被忽視的關鍵工作。閱讀更多資料,請點擊這裡。

今天的焦點人物是Allison Cohen,她是魁北克Mila的高級應用AI項目經理,Mila是一個擁有超過1,200名專攻AI和機器學習的研究人員社區。她與研究人員、社會科學家和外部合作夥伴合作,開展有益社會的AI項目。Cohen的工作組合包括一個檢測厭惡女性的工具,一個識別有疑似人口販運受害者在線活動的應用程序,以及一個推薦盧安達可持續耕作實踐的農業應用程式。

此前,Cohen是全球人工智慧合作夥伴組織AI藥物發現的共同主導,這是一家旨在指導負責任的AI發展和應用的組織。她還曾在德勤擔任AI戰略顧問,並且是獨立的加拿大智庫國際數字政策中心的項目顧問。

問答環節

簡單來說,您是如何開始從事AI領域的?什麼吸引您加入這個領域?

我認識到我們可以從識別臉部到談判貿易協議的一切事物進行數學建模,這改變了我看世界的方式,這也是讓我如此著迷於AI的原因。具有諷刺意義的是,現在我工作於AI領域,我發現我們不能 – 在許多情況下也不應該 – 用算法來捕捉這種現象。

在我完成多倫多大學全球事務碩士課程時,我接觸到了這個領域。這個課程旨在教導學生如何應對影響世界秩序的系統 – 從宏觀經濟到國際法到人類心理學的一切。然而,當我了解更多有關AI時,我認識到它對世界政治來說是多麼重要,並且我了解到我需要學習這個話題。

讓我進入這個領域的機會是一次寫作比賽。為了參加這個比賽,我寫了一篇描述迷幻藥物如何幫助人類在一個充斥AI的勞動市場上保持競爭力的論文,這使我有資格在2018年出席聖加侖論壇(這是一篇創意寫作作品)。我的邀請和隨後參與這一活動的經歷使我有信心繼續追求我在這個領域的興趣。

在AI領域,您最自豪的工作是什麼?

我管理的一個項目涉及建立一個包含對女性的隱蔽和明顯偏見表達實例的數據集。

對於這個項目,整個項目生命週期中有關自然語言處理專家、語言學家和性別研究專家的多學科團隊的人員配置和管理至關重要。這是我很自豪的事情。我第一手知道了為什麼這個過程對於建立負責任的應用程序是至關重要的,也知道這一過程為什麼不夠多 - 這是一項艱巨的工作!如果你可以支持這些利益相關者跨學科有效溝通,你就能促進把社會科學數十年的傳統和計算機科學的尖端發展融合在一起的工作。

我也為這個項目受到社區的好評而感到自豪。我們的一篇論文在領先的AI會議NeurIPS的社會責任語言建模研討會上受到關注。此外,這項工作啟發了AI瑞典進行的一項類似的跨學科進程,AI瑞典將這項工作適應瑞典對厭惡女性的觀念和表達。

您如何應對男性主導的科技行業以及延伸的男性主導的AI行業的挑戰?

不幸的是,在這樣一個尖端的行業中,我們仍然看到問題性別動態。這不僅對婦女造成不良影響 – 我們所有人都受損。我對Sasha Costanza-Chock的著作《設計正義》中介紹的“女性理解理論”這一概念感到很受啟發。

這一理論主張,那些知識和經驗受到不同特權影響的邊緣化社區,具有一種意識,能夠帶來公平和包容性的變革。當然,不是所有邊緣化社區都是一樣的,內部的個人經驗也不盡相同。

也就是說,這些群體的各種觀點對於幫助我們應對、挑戰和解決各種結構性挑戰和不平等至關重要。這就是為什麼不包括婦女在內可能使AI行業對更廣泛的人群排斥,從而強化領域之外的權力動態。

就我在應對男性主導的行業方面的處理方式而言,我發現盟友非常重要。這些盟友是強大和信任關係的產物。例如,我非常幸運有像Peter Kurzwelly這樣的朋友,他通過專業的播客支持我創作一個名為“The World We’re Building”的以女性為主導和核心的播客。這個播客讓我們能夠推高更多在AI領域的婦女和非二元人士的工作。

您會給希望進入AI領域的婦女什麼建議?

找到一扇敞開的門。這不一定是有薪的,也不一定是職業生涯,甚至不需要與您的背景或經驗一致。如果你能找到一個機會,你就可以利用這個機會在這個領域塑造自己的聲音,并從此開始。如果您是志願者,請全力以赴 – 這將使您脫穎而出,並希望您盡快得到報酬。

當然,能夠做志願工作也是一種特權,這點我也要承認。

當我在疫情期間失業,加拿大的失業率創下歷史新高時,很少有公司想要聘請AI人才,而那些聘用人才的公司也不是在尋找有八個月顧問經驗的全球事務學生。在尋找工作的同時,我開始在一個AI倫理組織做志願工作。

在我做志願工作時,我參與的一個項目涉及AI創作的藝術是否應該受到版權保護。我聯繫了一家加拿大AI律師事務所的律師,以更好地了解這一領域。她將我連接給了CIFAR的一位人,該人將我介紹給了Mila AI for Humanity Team的執行主任Benjamin Prud’homme。令人驚訝的是,通過有關AI藝術的一系列交流,我瞭解了一個後來改變了我的生活的職業機會。

隨著AI的發展,有哪些最迫切的問題?

我對這個問題有三個答案,這三個答案有一定的相互聯繫。我認為我們需要弄清楚:

  1. 如何協調AI的標度性建設,同時確保我們所建設的工具能夠適應當地的知識、經驗和需求。
  2. 如果我們要建立適應當地環境的工具,我們需要將人類學家和社會學家納入AI設計過程中。但是,有許多激勵機制和其他障礙阻礙了有意義的跨學科合作。我們如何克服這一點?
  3. 如何更深刻地影響設計過程,而不僅僅是納入跨學科專業知識?具體來說,我們如何改變激勵機制,使我們設計的工具是為最急需的人所設計的,而不是為那些最獲利數據或業務的人設計的?

AI用戶應該注意的一些問題是什麼?

我認為勞工剝削是一個沒有得到足夠關注的問題。有許多AI模型通過監督式學習方法從帶有標籤的數據中學習。當模型依賴於標籤數據時,必須有人進行標記(例如,某人將“貓”這個標籤添加到一張貓的圖片中)。這些人(標記者)通常是受到剝削性做法影響的對象。對於那些在訓練過程中不需要數據標記的模型(如一些生成式AI和其他基礎模型),數據集的構建仍然可以透過剝削性的方式進行,因為開發者通常不會徵得同意,也不會為數據創建者提供報酬或表揚。

我建議看看Krystal Kauffman的工作,我很高興看到她在這個TechCrunch系列中被推薦。她正在推動標記者的勞工權利,包括基本工資、終止“大量拒絕”實踐和符合基本人權的參與實踐(以應對入侵式監視等發展)。

負責任地建立AI的最佳方式是什麼?

人們通常尋求倫理AI原則,以宣稱他們的技術是負責任的。不幸的是,倫理反思只能在一系列決策已經作出之後才能開始,這些決策包括但不限於:

  1. 你正在建立什麼?
  2. 你如何建立它?
  3. 它將如何部署?

如果您等到這些決策已經作出,您將錯過無數機會來建立負責任的技術。

根據我的經驗,建立負責任的AI的最佳方式是從您的過程的最早階段起就意識到