找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 199|回复: 0

玫琳凯对抗人工智能领域的性别偏见

[复制链接]

1

主题

0

回帖

7

积分

新手上路

积分
7
发表于 2024-3-18 12:27:55 | 显示全部楼层 |阅读模式
尽管数字鸿沟和女性在 (科学、技术、工程和数学)领域代表性不足带来的挑战依然存在,但人工智能 (AI) 对实现性别平等和可持续发展提出了新的挑战。 据报道,意识到这些挑战,美容和护肤公司玫琳凯在对抗人工智能中的性别偏见方面发挥了主导作用,支持旨在理解和解决人工智能对性别平等的歧视性影响的新研究。 什么是人工智能中的性别偏见 人工智能中的性别偏见是指人工智能算法和系统表现出基于性别的偏好或歧视的系统性、非客观倾向。这些系统中的这种偏见普遍存在,并对妇女的短期和长期心理、经济和健康安全产生深远影响。 例如,男性专业人士在算法和人工智能技术开发中的主导地位可能会影响男性观点和经验的融合,从而产生无意识地偏向某一性别而不是另一性别的系统。


此外设计数据选择和模型训练决策可能会引入意想不到的偏见,对女性产生不成比例的影响。 正如联合国教科文组织2019 年的一份报告所强调的那样 等虚拟个人助理拥有女性名字和默认的女性声音并非巧合。这些虚拟助理背后的公司正在强化这样的社会现实:公共和私营部门的大多数私人助理或秘书都是女性。 麦肯锡咨询公司表示,尽管工作自 巴林电报号码数据 动化的未来将同时影响男性和女性,但性别偏见可能仍然存在,因此对女性的影响尤为严重。 人工智能中的性别偏见 玫琳凯对抗人工智能领域的性别偏见 在此背景下,2021年,玫琳凯与独立国际非政府组织平等权利信托基金)合作,支持旨在理解和解决人工智能对性别平等的歧视性影这种文化渗透到社会的各个方面,从语言、媒体到制度结构。



强奸文化 通过探索各种父权制的例子(因为显然还有更多),我们发现了生活各个领域中根深蒂固的复杂的不平等现象。从工作场所的歧视到性别暴力和教育不平等,这些表现形式需要高度关注和集体努力来拆除维持它们的结构。 意识是变革的第一步,通过仔细研究这些例子,我们希望我们能够帮助更深入地理解挑战和改变父权制规范的紧迫性。在追求更加公平的社会的过程中,每一个分享的故事和每一个发出的声音都是挑战和改变现状的有力工具。响的新研究。 此次合作催生了一种名为“平等设计”的创新方法。玫琳凯首席人力官梅琳达·福斯特·塞勒斯  强调:“解决新技术中潜在的性别偏见并努力确保人工智能技术旨在促进平等,是玫琳凯展示我们对包容性承诺的另一种方式。”我们的使命是丰富妇女的生活。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Discuz! X

GMT+8, 2024-9-21 03:18 , Processed in 0.090064 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表