学习包容性设计系列(1/4):当产品不包括

照片由托马斯·列斐伏尔/ CC0

希望阿姆斯特朗
写于2020年7月27日

当你设计一个产品,它是自然的,你自己的偏见会影响它。偏见是人类认知是我们无法控制的功能,但我们可以控制我们对他们如何行动。作为顺性别白衣女子,我的观点是通过我的身份和我的生活经历塑造。虽然我可以看看角色,并尝试想象其他人会如何感受一个产品,我无法真正知道,直到我观察使用产品等,并听取他们的想法。

当产品不包括

如果没有一个开阔的角度来看,产品将导致不可预见的影响。我们已经看到了人工智能如何放大现有的偏见和不平等。在2015年,谷歌的照片标记的黑色和棕色人非人类动物。图像标记技术并没有受过训练的不够好,以确定非白人的肤色。弗吉尼亚州的计算机科学教授维森特奥多涅斯大学注意到,图像识别软件拿起在训练数据偏差,然后延续这些偏见在更大的规模,深化现有的不平等。这取决于我们产品的创造者,以确保我们建立的公平和包容性的产品。

让我们看一下Facebook的另一个例子。在2012年8月,Facebook的确定有8300万个的假账户。这一发现无疑使人对Facebook的庞大的用户群的合法性,并降低了其股价。为了解决这个问题,Facebook的创建命名策略和监控系统检测,并暂停他们怀疑不会对他们的账户“实名”谁的人。其结果是,出现了对许多族群,其真实姓名不符合政策普遍受到歧视;他们有太多的话,太多的大写字母或字母组成的名字。它也有谁被禁止使用自己的名字采用假名或受影响的变性人。在2015年12月,Facebook宣布,那些有“特殊情况”(如被特定种族,变性人,人身受到威胁,或有柄)可以检查一个盒子里,所以他们的情况下,支持团队的处理方式不同。然而电子前沿基金会批评这种解决方案,并指出最脆弱的用户被迫透露他们的个人生活的私密细节。如果Facebook是包括多个不同的声音进入用户的研究和设计/开发,本来是可以避免这种歧视。

在Twitter上,有一个列表功能,允许用户编写Twitter账户的名单。最好的情况下,这可以用来创建你欣赏UX设计师的名单。但不幸的是,这个功能是用来虐待和威胁的人。一种最近Twitter的线程这引起了我的注意,滥用者使用该功能来协调对妇女的骚扰。在Twitter上,你可以看到你已经添加到列表中,有的有很伤人的标题。再次,在产品开发过程包括多个不同的观点可能阻止这一点,因为系统可以落实到位,以防止滥用列出了从创建,并在更大范围内,以防止平台本身的滥用。

该路径包容性产品

包容性设计需要一个多元化的团队谁拥有从领导的支持,使道德产品决策。它还需要捕获不同的观点用户研究。同情是当今用户研究提供了指导力量。当然,有些人认为同情就是答案。好吧,我会在本系列的下一部分同情的局限性。

在包容性设计系列其他职位:(即将推出)

  • 该限制(和可能性)同情的
  • 用户研究的重要性
  • 设计伦理

评论被关闭。

想了解更多关于Design?

设计是指视觉,交互流动,线框,品牌,等等。了解如何使用好设计,以提高你的网站,移动应用或业务。

学到更多