未来的智能界面博鱼体育:UI设计的未来
发布时间:2023-07-13 16:31

  神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

  编者按:按照人工智能这种指数式的发展趋势,未来人工智能可能会成为我们无所不在的助理。本文探讨了人工智能对产品设计和界面设计的影响。作者认为,人工智能会成为人类的得力助手,但同时也引发了一系列伦理、隐私和社会影响等问题。为了做出人工智能的最佳应用,设计师需要与伦理学家、法律专家等其他领域的专家合作,考虑伦理决策、风险评估、隐私保护等方面的影响。此外,文章还提到了设计师应该转变角色,从 UI 设计者转变为系统设计者,关注人工智能的智能设计和决策框架。文章来自编译。

  作为一名设计师和科幻电影爱好者,我一直被那种乌托邦愿景所吸引,人工智能会变成我的助手或守护者,无论是斯嘉丽·约翰逊在《她》(HER)里面那无处不在的声音,还是《超能陆战队》(Big Hero 6)里的那位关心人的机器人,或者是《钢铁侠》里面的贾维斯(JARVIS),我的每一个突发奇想它都会帮我搞定。就算未读邮件有成千上万也不用担心;有私人健康教练帮自己做决定来保持体形;我还可以把数十亿美元的生意委托出去给 AI 助手,好让自己能扮演超级英雄,这样的事情谁会不喜欢呢?有人工智能加持的智能系统将会比任何人都能更准确地为任何给定的用户场景决定最佳的 UI 范例。对于这样的未来,设计师最终应该做些什么样的准备呢?

  人工智能是一项我们才刚刚开始试验的变革性技术。不过,故事不会只停留在那些主动出现的多模式的“用户界面”上。对于依赖智能系统的人来说,系统必须展示出人类价值观、道德决策、决策透明度、隐私控制、数据安全、可追溯性、公平性和包容性、情境性以及许多其他的考虑因素。

  “当人工智能接受来自整个互联网的人类经验的训练时,这些控股公司应该有义务用为所有人创造现实世界价值的方式,去回馈社会。”

  将有人工智能支持的多模式“礼宾服务”变为保护人们和社会的现实,需要对企业构建、管理和维护此类系统的方式进行重新构想。原因如下——企业的文化和运营会严重影响决策,而决策又会影响人工智能服务的最终运作方式。

  人工智能驱动的产品或服务反映了组织提倡和支持的价值观、人员、流程以及指标。为了目标的一致性,企业必须采用商业模式和治理系统,将人们和社会的福祉内核与企业成功联系起来,并切实反映到员工的激励计划之中。在每个办公室的墙上贴上一张精心设计的使命宣言或海报,宣扬你的原则和价值观,这些并不足以确保一致性或影响力——研究人员和开发者需要明确的自上而下的方向,这种方向要体现在外部,这样才能维持问责制。各国政府正在就人工智能的机制形成更清晰的意见,并逐步制定更严格的政策来保护人类和社会。员工、利益相关者与股东应该达成共识,要在赚钱的同时保障大家的安全和自主性,而不是他们的数据。

  CEO 必须用独特的技能组合、流程和方法对组织进行调整和重组,确保提供充分的保护,从而提供符合道德规范的结果与价值。虽然人工智能将通过释放资源为企业改善效率,但这些资源必须专注于保护社会的一系列新责任——资源的维恩图从产品管理转向治理和监督。企业应该实验新的货币化和薪酬策略,激励员工做正确的事,就算这意味着收入受损也在所不辞。当社会层面对要不要大规模推出未经测试或验证的系统犹豫不决时,创始人必须管理好投资者的期望。

  随着人工智能“理解”的保真度提高,大型人工智能系统会理解更多人类交流的微妙之处。出于效率和功效的原因,人工智能今后只需要更少的数据就能絮叨更多,提高其综合人类输入的准确性,从而生成更准确的建议来改善结果。简单来说,人工智能会成为…

  一个虚拟礼宾服务,可根据对你的了解来提供所需的服务,你与它的互动越多,它就会变得越好。

  在这个世界里,人工智能对你的非口头以及口头交流信号、习惯以及数据消费的理解将呈指数式的提高,它帮你建立的个人档案的保真度要比任何人都要好。它与个人形成的那种关系似乎亲密到好像它有先见之明一样,它能为你提供正确的答案、建议、以及做出前瞻性的行动,快到几乎连眼睛都不眨一下。

  产品设计师专注于设计满足用户未尽需求的解决方案,假设他们具备了同理心,可以帮助他们实现目标。他们进行研究,发现洞察、建立假设、开发和测试原型,逐渐实现可增强用户体验的功能,做出可交付解决方案。这个过程高效、流畅,但却是不完整的。

  红队的工作方式则完全不一样。一开始的时候,红队是“黑客”,他们被雇来为进行渗透测试的 CTO 寻找攻破安全系统的方法,这样一来,在黑客发现漏洞之后,他们就能采取措施,减少错误,修补漏洞。

  在从零开始设计人工智能型产品时,设计人员可以借鉴红队的做法,去思考人工智能可能会如何通过缺乏透明度或公平性等方式带来不利结果,思考恶意行为者会如何操纵人工智能,对模型的表现产生负面影响,或者利用人工智能给不同的用例造成伤害。他们还可以头脑风暴一下,设想人工智能可能会如何发展,或者形成与最初预期目的不一致的涌现能力。通过从红队的角度进行头脑风暴,产品团队可以评估人工智能是否符合自己的目的。团队可以召开典型的“假设……会怎样”头脑风暴会议,其目标是建立一份“可能会如何出错”的场景列表。邀请隐私、合规、道德、哲学、公民与人权、工程以及网络安全方面的参与者担任黑帽角色,让大家一起探讨,碰撞出新的产品创意。CTO 还可以针对现有产品采用这个流程,来帮助避免出现不良结果。最终,这种方法的目的是帮助评估风险、确定新的用途和机会,并提高和扩大团队的整体认识,制订出严格的方法体系,帮助设计和开发保护人类、社会以及公司的人工智能解决方案。

  以下我们提供一个示例场景,说明拥有一位时刻在场的、高度亲密的人工智能助手的潜在缺点。

  “想象有一个无处不在的隐形的人工智能,它可以看到并记住你所做的一切,对你的一言一行都了如指掌,因此可以随时提供方便的、个性化以及非侵入性的上下文信息和服务。从表面上看,这个系统将是你的终极助手,它可以改变你的生活并释放你的时间,让你可以专注于生活当中最重要的事情。

  有了这种层次的数据,模型可以预测你的一整天,在你不知情的情况下影响你的每一个决定。那些有钱买得起人工智能助手的人将获得人生的金票,贫富差距被无情地拉大。人们将生活在一个超个性化体验的世界里,表面看来,这种体验会让人感觉很神奇。分享更多数据的人会获得更多的人工智能“超能力”,从而进一步推动这个循环。无法获得人工智能的人还是会被记录下来,他们没法选择退出对自己数据的收集。不过,对于人工智能采用者来说,他们的世界观和对人们的期望往往会被他们每天收到的数千条公开、间接的建议所改变,将他们与那些没有收到的人区分开来,从而弱化了社会的共同信仰与共同点。”

  蓝队(专注于正面解决方案的团队)可以拆解这个场景,对所描述的风险进行分类,并寻找缓解不利结果的方法,提出“我们可以如何”的问题,确保永远在场的 UI (人工智能) 不会伤害到人,或以不利于他们的福祉或社会稳定的方式影响到他们。

  产品设计将不再关注 UI 上的像素、不用关心模式库里面的组件,或进入导航系统的内容决策——尽管所有这些事情在未来一段时间内仍然是必要的。 人工智能初创企业已经开始在许多典型的产品设计任务中模仿甚至替代设计师的角色,并且随着时间的推移,这一趋势只会加速和改善。

  设计师必须与时俱进,利用他们对用户的同理心,在新角色中充分发挥这一点,推动战略设计决策的制定,影响当今智能系统开发、管理和治理所涉及的每一个功能。为了保护社会免受反乌托邦未来的影响,设计师必须促进跨组织的合作,并与他们之前从未合作过的专家和利益相关者(如伦理学家、民权和人权倡导者、合规专家、哲学家、心理学家、行为经济学家、和人类学家)结盟,帮助组织制定知情、一致的战略和运营模式,公平地造福于所有社区。设计师必须学会聚焦于系统设计而不是设计系统,因为人工智能是在许多相互竞争的议程、系统、流程以及人员之中开发出来并进行管理的。相比之下,未来设计系统这件事将会由人工智能来负责监督。

  设计师习惯于适应不断变化的设计挑战,因为他们所做的一切都坚持以人为本的方法。这种以人为本的做事方法可以帮助设计师摆脱智能副驾驶系统的干扰。高影响力设计的未来将是艺术性地去设计服务的智能(人工智能思维),这在任何像素触及屏幕之前很久就已经发生了。因为没有规则手册,所以设计领袖必须专注于将合适的利益相关者聚集在一起,就人工智能应该如何表现、应该针对哪些用例进行开发、如何进行训练、出现问题时该如何处理等做出明智决定,用户将对自己的数据以及人工智能提供的建议拥有什么样的自主权,以及其价值是否大于其固有的缺点展开讨论。设计师必须思考,如果把一些事情完全自动化,会不会让人们不再能用老派的方式做事,因为有时候人就是要经过奋斗才能成长(比如教育就是这样)。人工智能可让产品团队管理跨不同社区的个性化应用,确保文化规范、安全性以及人的主动性。

  质疑关于世界需要解决哪些问题以及人工智能是否适合这些解决方案的基本假设。如果这个问题很普遍,解决方案也很容易获得并且适用于所有人,那么你可能会成为赢家。

  质疑他们团队的使命是否符合社会和地球的福祉。你的收入目标会不会影响到你对技术的利用方式,进而对社会产生影响?

  将设计师角色的概念扩展到只关注产品 UI 的人之外。公司需要对人工智能战略规划采用文科方法,确保工程和数据科学家充分了解他们开发的服务可能产生的伦理、法律和社会心理影响。要在小组讨论、研讨会以及战术实施中运用设计思维,从多个角度整合需求,以确保结果公平。

  适应和学习新技能组合可确保对人工智能的调校是正确的,且合乎道德,从而造福于用户、利益相关者、社会和地球。问题是——从事“产品”工作的人是不是得减少一些,从而有更多的人可以从事道德决策框架的工作,去管理好智能系统?

  思考一下设计思维如何确保解决方案对所有人公平且可用。如果人人都需要一部 700 美元的手机与宽带互联网,那么几个世纪以来一直让社区被边缘化的不平等现象可能还会延续。

  考虑实施自上而下的战略,让道德、公民和法律因素与业务目标保持一致,以便产品团队对成功有清晰的认识。想一想当今人工智能发展的那条指数式的学习曲线,预测可能会带来哪些新的好处和危害,然后回过头来思考一下这可以为今天的决策提供哪些参考。

  在设计人工智能型产品时,要注意既要考虑用户的便利,也要思考为世界做好事。人生就是要学习如何应对障碍。

  开发稳健的风险评估方法和决策框架,从而确保团队能思考管理人工智能型产品的好处和挑战。建立红队的流程和评估方法,并不断进行优化和排序,以确保产品团队在尽最大努力保护人类和社会的同时保持动力。

  关注当前人工智能的责任和隐私问题,熟悉监管要求,并推迟对未来的展望,直到组织的运营成熟度已经为管理“思维机器”的复杂性做好了准备。博鱼体育