跳转到内容

用户:YarinLin/沙盒

维基百科,自由的百科全书

性别化创新(Gendered Innovations, GI)是“性别化的科技创新”[1]的缩写,意指考量性别因素并利用分析所达成的创新行为。其核心宗旨为,发现并指认科学科技数学工程等领域中被忽视的性别差异,据以进行下一步的性别分析,再将分析结融入研发或实验的考量。

简介

[编辑]

背景

[编辑]

将性别平等的概念带入研究场域的倡议在欧美大国中已行之有年,这些倡议往往着重于如何协助女性进入科学、科技、工程、数学(Science, Technology, Engineering, Mathematics)等非典型劳动领域。然而,这样的计划大多只着眼于人数上的性别比例,未能深入理解各领域细微的性别差异,对于促进女性参与的成效并不显著,更遑论让女性进入这些 领域的管理阶层。在科技发展快速的今日,若引领世代发展的科技缺未能纳入各性别、种族、或文化之观点,其制造的产品必不成比例地对非主流群体造成负面的影响。“性别化创新”的概念便源自于此,期能创造具性别敏感度的创新研发行为,借此转化结构中隐藏的不平等。

“性别化创新”为斯坦福大学于2009年发起的研究计划,欧盟执行委员会(European Commission)于2011年为此成立“透过性别达致创新”(Innovation through Gender)专业工作小组,希冀为欧盟的研究与创新带入新的面向。美国国家科学基金会(The U.S. National Science Foundation)亦于隔年加入计划,为研究带来更多元的观点。为搭配全球自然与科技的研究脉络,本研究之案例及性(别)分析皆出自跨国的交流与合作,超过70位来自欧、亚、美等三大洲的学者对此进行一系列的交互检视及跨领域工作坊。

应用方法

[编辑]

在性别化创新的指认与解决方法研究中,生理性别社会性别将是思考与模型建立的重要理论依据。在研究初期将生理及社会性别纳入考量,将能

应用领域

[编辑]

科学中的性别化创新

[编辑]

科学中的性别分析检核

[编辑]

案例

[编辑]

医疗中的性别化创新

[编辑]

医疗中的性别分析检核

[编辑]

案例

[编辑]

工程中的性别化创新

[编辑]

工程中性别化创新范围包含公私领域中的产品、科技服务、工业设计概念或城市基础建设。融入生理及社会性别工程创新可能有助于,产品、服务、工艺流程的诞生或改善,促进性别友善或抑止不平等现象,反之,亦有因科技而使偏见扩大的案例。在提升人类福祉同时,性别化创新对于现有或新兴科技的刺激,有发现新市场和商机,强化原本被忽略的族群(性别)市场所需的科技竞争力及持续性的功用。

工程中的性别分析检核

[编辑]

工程应用中的关系者具有不同特质(性别认同、生理性别、年龄、民族、职业、教育程度、收入、家庭等),生理性别与社会性别在此开发中的技术里扮演何种角色,将成为工程中的性别分析检核的依据?(请参见:分析研究优先次序和结果;分析与生理/社会性别交织的因子) 生理性别的相关性 社会性别的相关性 所需工具 创新的可能性

案例

[编辑]

[案例一] Google 搜索引擎-科技而扩大的人类偏见案例 在Google的搜索引擎当中,有使用词嵌入(Word embedding)之技术捕捉词汇之间的关联性,提升搜寻关键字推荐时的准确度。然而,此种备受欢迎的机器语言学系方式,将可能因为期词汇向量的训练方式,非人为式的不断加深一些包含族群、性别、肤色的刻板印象,如:女人-护理师、被保护的、可爱的。男人-国王、尊敬的、雄伟的。黑人:逮捕、犯罪。如此泪推关系若放任其不对循环,将放大性别刻板印象与歧视性标签的风险。 [解决方式]

描绘出解决之道
[编辑]

a.有几个研究团队正积极设计包含诠释资料和“营养标签”的机器学习数据集“规格单”(Gebru et al., 2018; MIT Media Lab, 2018)。虽然诠释数据的特定格式会依领域而异,但每个训练组应附上数据是如何搜集及注释的相关资讯。包含人类资讯的数据应该统整参与者的组合样貌数据,其社会性别与族裔等等。透过群众外包而来的数据标签例如MS Turk,应包含群众参与者的资讯,以及标签时给予的指示。

b.机器学习或神经资讯处理系统的同侪评阅期刊以及国际研讨会应该对投件要求标准化的诠释数据。人工智能竞赛平台例如Kaggle,以及数据数据库例如OpenML,也应该这么做。

c.要搜集更多样的数据,突破便利分类也很重要—女人/男人、黑人/白人等,这就无法捕捉(跨)性别与族裔身份认同的复杂性(Bivens, 2017)。 发展以算法侦测及移除偏见的方式

当算法可能存在偏见时,能够侦测是很重要的。有几个团队正在为此研发工具。

打造训练数据集以避免偏见
[编辑]

a.在一案例中,研究人员小心地规划了一个社会性别与肤色表现型平衡的影像基准点数据集,并以肤色类型标示影像。接着他们使用此数据集评估商用性别分类器的准确性,得出结果的差异性如前述(Buolamwini & Gebru, 2018)。

b.为了辨识前文所述的词向量中的性别偏见,研究人员发展了几何式技术,接着他们研发了一个用于去除此类向量中的偏见之算法,例如“保母”与“祖父”和“祖母”间的距离一致(Bolukbasi, T. et al., 2016)。还有些研究人员将内隐连结测试应用在词向量中,借此示范其中包含了许多与人类相似的偏见(Caliskan et al., 2017)。另外还有些人则研发了GloVe的性别中立变形版(Zhao, 2018)。以影像而言,研究人员首先展示了训练算法可能会强化训练数据中出现的偏见,接着则研发了一项能降低此强化的技术(Zhao et al., 2017)。

c.类似的技术也能用来研究整体社会中长久的刻板印象与偏见。研究人员在词向量中运用几何式公制,并以100年以上的文字数据加以训练,借此辨识历史中性别与族裔偏见的演变(Garg et al., 2018)。类似的方法亦能用于比较当今文件中的偏见。 这种侦测及减少偏见的技术在其他领域中也很需要,如刑事司法(例如被告的风险评估及假释与否的决定,或做出判决时)、贷款与其他金融事务,以及聘雇之时。然而在这些领域中,必须仔细留心不正当的偏见之确切定义,以及各种减低技巧带来的后果。这类的应用便是需要跨领域合作的研究范围中的一部分,且此范围正逐渐成长中。

打造训练数据集以避免偏见
[编辑]

要制作出能同时带来高品质的技能与社会公平的人工智能,需要几个重要步骤,我们强调以下四点:

1. 关切基础建设议题。意图创造公平是很复杂的,必须理解偏见是如何镶嵌在机构性的基础建设以及社会权力关系当中(Noble, 2018)。除非细心研读,否则结构性的偏见对社会行动者而言常是隐形的—无论是人类或是算法。举例而言,维基百科看起来是个很好的数据来源。其资料丰富,亦是全世界最常使用的网站第五位。但其中有些结构性问题:传记类中女性的项目占比不到30%,相关连结亦较常连至男性相关文章,且其中关于亲密伴侣与家庭的内容也不成比例地高(Wagner et al., 2015; Ford & Wajcman, 2017)。这些不对等可能来自于全球维基百科编辑者中,女性的占比仅不到20%(Wikimedia, 2018)。

2. 严谨的社会效益检视。2017年阿西洛马会议制定了23项人工智能原则[2]。我们现在需要为了达成这些原则,发展出检视机制。Fairness, Accountability, and Transparency in Machine Learning(公平、可靠且透明化的机器学习https://www.fatml.org)便是以此为目标的机构。亦有几项政府报告提及此议题((Executive Office of the President, 2016; CNIL, 2017)。

3. 打造跨领域且社会性多元团队。新的倡议(机构)如史丹佛人类中心人工智能机构、公平、可靠且透明化的机器学习组织,以及其他单位正集合了电脑科学家、律师、社会学家、人文学家、医药、环境与性别的专家组织跨领域团队,希望优化人工智能中的公平性。这种认知与社会的多元性也带来了创意、发掘以及创新(Nielsen et al., 2017)。

4. 将社会议题融入电脑科学核心课程。电脑科学的学生毕业时应具备分析性别与族裔及其工作更广泛的社会影响之基本概念工具。我们建议将社会议题融入电脑科学核心课程—大学与研究所层级皆然—搭配算法的介绍。

参考文献

[编辑]