AI会偏心?如何在智能时代守护性别平等

AI会偏心?如何在智能时代守护性别平等
2024年11月07日 13:51 数字社会发展与研究

导语:

性别不平等是人工智能必须面对的真问题。数据、算法和算力是人工智能发挥作用的基础要素。机器学习作为实现人工智能的主要技术,最基本的做法是基于算力使用算法来解析数据,从中学习知识,进而生成预测或决策模型。与标准化的软件质量管理流程从白盒测试的角度可以发现和处理代码逻辑中的技术缺陷不同,人工智能的模型训练往往处于黑箱状态,并无人工干预。

因此,人工智能的技术过程,往往表现出客观中立的面貌。然而,国内外已有的研究发现和现实案例表明,数据、算法和算力三要素的开发和利用过程均有可能存在各种社会偏见。性别偏见正是其中一个常常被忽视,却真实存在的问题。

技术的误用或缺位,正导致不同性别的群体在数字社会的各个方面变得越来越不平等。本文从数据、算法和算力方面揭示人工智能生态中存在的各种性别不平等问题,并提出推进性别不平等治理的建议。

文| 周旅军

       中华女子学院社会学系副教授

在这个由算法和大数据主导的人工智能时代,我们正面临着一个看似矛盾的现实:科技进步带来的机遇与性别不平等的挑战并存。

AI技术正在深刻改变我们的生活方式,从推荐我们看的电影、帮助企业筛选简历,到协助银行做出贷款决策。然而,在这些看似中立的技术应用背后,却隐藏着一些不为人知的性别偏见。

数据、算法、算力

人工智能的三大支柱中隐藏的性别陷阱

要理解AI中的性别偏见,我们首先需要认识到AI并非凭空而来的超级智能,它的“智商”和“见识”都源于人类提供的数据、算法和计算能力。

换句话说,AI学到什么样的知识、学会怎样决策,往往取决于我们给它输入了什么。让我们从数据、算法和计算能力这三个方面来解析AI中性别偏见的根源。

数据:女性的“隐形”与“失声”

数据是人工智能的“粮食”,但目前的数据世界似乎更偏爱“男性口味”。在AI的眼中,女性常常是“隐形”。

例如,在医疗数据中,女性患者的数据往往比男性少,这可能导致AI在诊断某些疾病时对女性不够敏感。在职业数据库中,女性的职业信息可能不如男性详细,这会影响AI对女性职业能力的判断。

在知识数据库中,以百科类知识资源为例,它作为知识图谱的基础,折射出现实社会中权力的不平等秩序。2019年3月8日,联合国教科文组织发起#Wiki4Women倡议,旨在通过创建、编辑和翻译维基百科上的女性简介和列表,促进在数字领域更好地宣传有奉献精神的知识女性。这一倡议意在改善维基百科中女性条目不到五分之一的现状,从而推动消除数字空间中的性别失衡。

更值得注意的是,AI学习的很多数据来自历史记录,这些数据中包含了现实生活中长期存在的性别差异和偏见。当我们把这些数据提供给AI时,实际上是把旧有的社会偏见传递给了它。

例如,在招聘数据中,某些高管职位可能历史上多由男性担任,这会导致AI在筛选简历时倾向于选择男性候选人;在人脸识别系统中,将厨房图片中的男性识别为女性,折射出社会中的性别刻板印象;尽管不直接使用性别变量,但从诸如日常生活购买记录等反映传统性别秩序的数据中进行机器学习,仍旧可能在信用评级、贷款等场景中对女性产生偏见。

算法:看似中立实则偏颇

算法是AI的“大脑”,虽然算法本身是理性的数学公式,但其设计和优化却由人来完成。算法中的性别偏见往往是隐蔽的,不容易被察觉。即使我们查看AI的代码,也很难直接发现问题,因为这种偏见并不是明码编写在算法中的,而是埋藏在数据和规则的深层之中。在这个过程中,开发者可能会无意中注入自己的偏见。

例如,在内容推荐算法中,AI可能会向女性用户推荐更多美容、育儿类内容,而向男性用户推荐更多科技、体育类内容。这种做法看似基于用户兴趣,实则可能加深性别分化。

在招聘、贷款审核等关键决策场景中,算法可能会对特定性别产生不利影响。有研究发现某些AI招聘系统会倾向于筛选出男性候选人,尤其是在科技类岗位上。在金融领域,AI可能会基于历史数据对不同性别给出不同的信贷评估,这可能加剧职场中的性别薪酬差距。

算力:男性主导的技术高地

在主导AI发展的科技公司中,高管和技术岗位往往以男性为主。这种性别失衡导致在AI产品设计和开发过程中缺乏女性视角。例如,某些语音识别系统对女性声音的识别准确率低于男性,这可能与开发团队缺乏女性成员有关。

在科学、技术、工程和数学(STEM)领域的教育中,女性的参与度仍然偏低。这直接影响了AI行业的人才供给,导致女性在AI研发中的声音较弱。长期来看,这种教育上的差距可能会加剧AI领域的性别不平等。

此外,在AI学术研究中,女性研究者的比例仍然偏低。这不仅影响了研究方向的多元化,也可能导致一些与性别相关的重要问题被忽视。

▲ 图源Pixabay

文化堕距:技术与社会的不同步之舞

为什么AI领域会存在如此多的性别不平等问题?这可以用“文化堕距”理论来解释。这个理论认为,在社会变迁过程中,物质文化(如技术)的变化速度往往快于非物质文化(如制度、观念)的调整速度。在AI领域,这种堕距主要表现在三个方面。

首先是规范堕距。我们的价值观念往往跟不上技术变革的步伐。例如,语音助手大多使用女性声音,这可能无意中强化了“女性应该担任助理角色”的刻板印象。而我们对AI的过度信任,也可能让我们忽视了它继承和放大现有社会偏见的风险。

其次是制度-政策堕距。当前的法律法规框架难以应对AI技术带来的新型性别歧视形式。传统的反歧视法律可能未能充分考虑算法偏见等新问题,而技术创新的快速发展也给监管带来了巨大挑战。

最后是认知-能力堕距。许多开发者和决策者可能缺乏对性别问题的认识和解决能力。同时,公众对AI的了解往往停留在表面,难以识别和质疑AI决策中可能存在的性别偏见。这种认知不足可能导致人们被动接受AI的决策,即使这些决策可能存在性别歧视。

破局之道

多管齐下的算法规制

面对这些挑战,我们需要采取多方面的措施来守护性别平等。

首先,我们需要加强对算法的监管。这不仅包括要求平台公开其算法原理,还应该建立独立的第三方审核机制,定期评估算法的公平性。例如,可以要求社交媒体平台定期发布算法审计报告,说明其内容推荐是否存在性别偏见。

同时,我们应该大力发展促进性别平等的AI应用。在就业领域,可以开发AI系统来识别招聘广告中的性别歧视语言,或者尝试设计“性别盲”的初筛系统。在教育领域,我们可以利用AI技术开发个性化学习系统,帮助更多女性获得STEM领域的教育机会。

此外,提高公众和从业者的性别平等意识也至关重要。我们需要通过各种媒体渠道普及AI与性别平等相关的知识,对开发者进行无偏见编程技术的培训。高校可以在计算机科学和人工智能相关课程中增加性别与技术伦理的内容,培养未来AI从业者的性别敏感度。

在政策层面,我们需要建立健全的AI系统性别审计机制,制定专门的法律法规,要求重要的AI系统定期进行性别影响评估。政府可以设立专门的基金,支持有关AI与性别平等的研究和实践。同时,鼓励社会科学家,特别是性别研究专家从项目早期就参与AI的设计和开发过程。

结语

构建更公平的AI未来

AI技术的发展为我们带来了前所未有的机遇,但同时也带来了新的挑战。消除AI中的性别偏见需要技术、政策、教育等多方面的共同努力。这不仅是一个技术问题,更是一个需要全社会共同面对的重要议题。

开发者应该时刻警惕自己的潜在偏见,政策制定者需要与时俱进,教育工作者应该鼓励更多女性参与STEM教育,而作为普通用户,我们也应该保持批判性思维,质疑可能存在的偏见。

从国内外情况来看,如不尽快弥合规范堕距、制度-政策堕距、认知-能力堕距,人工智能技术将不仅仅复制现实社会中的性别不平等问题,还因技术特性和表面上的客观性而成为社会“新巫术”,导致性别不平等问题不仅得不到解决,而且会在虚拟空间中加强扩散,且更隐蔽,更难应对。

国家虽然正出台相关的治理政策,但单靠技术方或社会科学家都难以解决系统性的问题。只有通过源头上的多方合作推动社会文化的转型,才有可能将社会科学的理念与工程技术的实践相结合,有效实现新兴技术的治理。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部